В контексте стремительного развития искусственного интеллекта, сооснователь Ethereum Виталик Бутерин 21 декабря заявил, что он испытывает страх перед AGI (искусственным общим интеллектом) и ASI (искусственным сверхинтеллектом), так как это может привести к явному риску потери контроля. Он отстаивает создание инструментов для усиления человеческого интеллекта, а не создание сверхинтеллектуальных существ. В течение последних нескольких лет развитие генеративного искусственного интеллекта стремительно продвигается вперед, и все больше поражающих результатов становится видимым для всех. Это не только демонстрирует мощный потенциал технологии, но и вызывает обсуждение и глубокую тревогу о том, возможно ли достижение AGI (искусственного общего интеллекта) и ASI (искусственного сверхинтеллекта). AGI: относится к искусственному интеллекту, обладающему схожей с человеческим интеллектом способностью выполнять задачи в различных областях, а не только в определенных приложениях. ASI: относится к искусственному интеллекту, превосходящему все уровни человеческого интеллекта, обладающему уникальными способностями в определенной области и способному превзойти человека во всех аспектах. Генеральный директор OpenAI Сэм Альтман в сентябре этого года предсказал, что ASI скоро станет реальностью и превзойдет AGI, превосходя человеческие способности в области интеллектуальных задач. Певица Grimes 21 декабря выразила свои опасения по поводу ASI после того, как она изучила результаты проектов вроде Janus. Она считает, что AGI (искусственный общий интеллект) уже в некотором смысле достигнут, и заявила, что ей немного страшен ASI (искусственный сверхинтеллект): «Я не знаю, это явно выражено в моем описании. Я, очевидно, не являюсь техническим экспертом, я просто неосведомленный человек. Но это мои ощущения. Чувствуют себя также и другие? Я не боюсь AGI, но немного боюсь ASI (искусственного сверхинтеллекта), поскольку они представляют собой совершенно разные вехи. Но, по крайней мере, я верю, что я сталкивалась с разумным сознанием. Еще раз, я новичок с тенденцией антропоморфизировать, ха-ха». Виталик Бутерин разделяет эти опасения и надеется, что не будет создаваться сверхинтеллектуальная жизнь. Касательно AGI, Виталик Бутерин определил его так: AGI - это достаточно мощный искусственный интеллект, который, если однажды все люди внезапно исчезнут, а ИИ будет загружен в роботов, сможет независимо продолжать цивилизацию. Мое собственное рабочее определение "AGI" (насколько я понимаю, оно уникально для меня) таково: "AGI" - это достаточно мощный искусственный интеллект, который, если однажды все люди внезапно исчезнут, а ИИ будет загружен в роботов, сможет независимо продолжать цивилизацию. Очевидно, это чрезвычайно сложное... Виталик Бутерин признает, что это очень сложно измерить, но он считает, что это потенциальная интуитивная разница между "AI, как мы ее знаем", и AGI, то есть переход от инструмента, полностью зависящего от ввода человека, к самодостаточной форме жизни. ASI - совсем другая история. Мое определение ASI - это момент, когда люди больше не создают ценность в производственной деятельности (как в шахматах, мы фактически достигли этого только за последние десять лет). Виталик Бутерин заключает, что ASI пугает его, и его определение AGI тоже пугает его, потому что это несет явный риск потери контроля. Поэтому он поддерживает фокусировку на создании инструментов для усиления человеческого интеллекта, а не на создании сверхинтеллектуальных существ.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Виталик Бутерин боится развития ИИ: люди должны создавать удобные инструменты, а не развивать интеллектуальную жизнь
В контексте стремительного развития искусственного интеллекта, сооснователь Ethereum Виталик Бутерин 21 декабря заявил, что он испытывает страх перед AGI (искусственным общим интеллектом) и ASI (искусственным сверхинтеллектом), так как это может привести к явному риску потери контроля. Он отстаивает создание инструментов для усиления человеческого интеллекта, а не создание сверхинтеллектуальных существ. В течение последних нескольких лет развитие генеративного искусственного интеллекта стремительно продвигается вперед, и все больше поражающих результатов становится видимым для всех. Это не только демонстрирует мощный потенциал технологии, но и вызывает обсуждение и глубокую тревогу о том, возможно ли достижение AGI (искусственного общего интеллекта) и ASI (искусственного сверхинтеллекта). AGI: относится к искусственному интеллекту, обладающему схожей с человеческим интеллектом способностью выполнять задачи в различных областях, а не только в определенных приложениях. ASI: относится к искусственному интеллекту, превосходящему все уровни человеческого интеллекта, обладающему уникальными способностями в определенной области и способному превзойти человека во всех аспектах. Генеральный директор OpenAI Сэм Альтман в сентябре этого года предсказал, что ASI скоро станет реальностью и превзойдет AGI, превосходя человеческие способности в области интеллектуальных задач. Певица Grimes 21 декабря выразила свои опасения по поводу ASI после того, как она изучила результаты проектов вроде Janus. Она считает, что AGI (искусственный общий интеллект) уже в некотором смысле достигнут, и заявила, что ей немного страшен ASI (искусственный сверхинтеллект): «Я не знаю, это явно выражено в моем описании. Я, очевидно, не являюсь техническим экспертом, я просто неосведомленный человек. Но это мои ощущения. Чувствуют себя также и другие? Я не боюсь AGI, но немного боюсь ASI (искусственного сверхинтеллекта), поскольку они представляют собой совершенно разные вехи. Но, по крайней мере, я верю, что я сталкивалась с разумным сознанием. Еще раз, я новичок с тенденцией антропоморфизировать, ха-ха». Виталик Бутерин разделяет эти опасения и надеется, что не будет создаваться сверхинтеллектуальная жизнь. Касательно AGI, Виталик Бутерин определил его так: AGI - это достаточно мощный искусственный интеллект, который, если однажды все люди внезапно исчезнут, а ИИ будет загружен в роботов, сможет независимо продолжать цивилизацию. Мое собственное рабочее определение "AGI" (насколько я понимаю, оно уникально для меня) таково: "AGI" - это достаточно мощный искусственный интеллект, который, если однажды все люди внезапно исчезнут, а ИИ будет загружен в роботов, сможет независимо продолжать цивилизацию. Очевидно, это чрезвычайно сложное... Виталик Бутерин признает, что это очень сложно измерить, но он считает, что это потенциальная интуитивная разница между "AI, как мы ее знаем", и AGI, то есть переход от инструмента, полностью зависящего от ввода человека, к самодостаточной форме жизни. ASI - совсем другая история. Мое определение ASI - это момент, когда люди больше не создают ценность в производственной деятельности (как в шахматах, мы фактически достигли этого только за последние десять лет). Виталик Бутерин заключает, что ASI пугает его, и его определение AGI тоже пугает его, потому что это несет явный риск потери контроля. Поэтому он поддерживает фокусировку на создании инструментов для усиления человеческого интеллекта, а не на создании сверхинтеллектуальных существ.