14.06.2025 г.
В 2023 году лауреаты Нобелевской премии, ведущие ученые в области ИИ и даже генеральные директора ведущих компаний в сфере ИИ подписали заявление, в котором говорится, что «смягчение риска вымирания от ИИ должно быть глобальным приоритетом наряду с другими общемировыми рисками, такими как пандемии и ядерная война». Возникает вопрос, как мы переходим от Chat GPT к ИИ, который может уничтожить всех на Земле. И почему так много ученых, генеральных директоров и мировых лидеров ожидают этого?
Давайте проследим развитие возможностей ИИ во времени. В 2019 году у нас был GPT-2, который мог отвечать на короткие фактические вопросы, переводить простые фразы и выполнять небольшие вычисления. К 2022 году появились модели, такие как GPT 3.5, способные отвечать на сложные вопросы, рассказывать истории и писать простое программное обеспечение. К 2025 году у нас есть модели, которые могут сдавать экзамены на уровне доктора философии, самостоятельно писать целые приложения и идеально имитировать человеческие голоса. Они начинают существенно превосходить среднестатистических людей и даже экспертов. У них, конечно, все еще есть слабости, но список того, что ИИ не может делать, постоянно сокращается.
Что произойдет, если мы продолжим эту линию развития? Мы увидим, как ИИ становится все более и более способным, пока не достигнем критической точки, когда ИИ сможет проектировать и создавать новые системы ИИ без помощи человека. Тогда, вместо того чтобы прогресс исходил от человеческих исследователей, у нас будут ИИ, создающие лучшие ИИ, и линия развития станет намного круче. Если мы продолжим двигаться дальше, мы достигнем точки, когда ИИ станут сверхразумными, превосходящими людей в каждой интеллектуальной задаче, лучше, чем все человечество вместе взятое. Это приведет к спонтанному созданию прорывов в исследованиях и производстве, что будет отвечать за большую часть экономического роста, полностью преобразуя мир.
И если мы продолжим эту линию, в конечном итоге мы можем достичь этой точки. Непостижимые машинные боги, которые возвышаются над нами так же, как мы возвышаемся над муравьями, кажущиеся способными преобразовывать мир так, как им захочется, с нашим участием или без него, с нашего разрешения или без него. Если мы достигнем этого момента, вероятно, человечество вымрет по той же причине, по которой мы истребили так много других видов. Не потому, что мы хотели их уничтожить, а потому, что мы были заняты преобразованием мира, и не стоило наших усилий оставлять их в живых.
Когда это произойдет? Никто не знает. Есть ли другие пути развития будущего? Безусловно. Но если мы продолжим создавать более мощные ИИ так, как мы это делаем сейчас, то это выглядит как путь по умолчанию. И этот путь по умолчанию ужасен для людей. Почему? Потому что мы отлично умеем создавать мощные ИИ, но мы еще не выяснили, как заставить их делать то, что мы хотим. Мы добились некоторого прогресса. ИИ-помощники обычно сопротивляются таким вещам, как объяснение того, как делать бомбы. Но они не настолько устойчивы. И до сих пор мы просто пытались контролировать то, что слабее нас, где мы можем поймать их, когда они пытаются нам солгать.
Но как только мы достигнем этой точки, это перестанет быть правдой, и проблема станет намного сложнее. На самом деле, никто не знает, как это сделать. Вот почему эксперты, включая лауреатов Нобелевской премии и основателей каждой ведущей ИИ-компании, высказались о риске того, что ИИ может привести к вымиранию человека.
Развитие ИИ: от узкого к общему интеллекту
ИИ ведет к искусственному общему интеллекту (AGI). Что означает общий интеллект? Это означает, что все, что человек мог бы сделать на компьютере, AGI также мог бы сделать. ИИ уже могут выполнять базовые операции. У нас есть системы, которые можно подключить к обычному компьютеру, и они могут смотреть на экран и понимать, что происходит, отправлять сообщения, искать в интернете и так далее. Они также становятся довольно хороши в использовании внешних инструментов.
Очевидно, они не могут звонить людям, но они... нет, на самом деле, они вполне могут это делать. Так что у них уже есть строительные блоки. Вопрос в том, насколько хорошо они могут их комбинировать. Они могут отправлять сообщения, но могут ли они управлять компанией? Они могут писать код, но могут ли они писать научную работу? И ответ — пока нет, но в конечном итоге и, возможно, довольно скоро. В конце концов, они просто продолжают становиться лучше. И если мы просто экстраполируем, то, похоже, они рано или поздно достигнут этой точки. Переход от написания короткого рассказа к написанию отличного романа довольно велик. Но помните, что 5 лет назад они едва могли писать связные предложения.
Многие люди сомневаются в этом, обычно по одной из двух причин. Одна из них заключается в том, что ИИ на самом деле не «думает» глубоко. Об этом интересно подумать, но вопрос о том, обладают ли ИИ подлинным пониманием, здесь не так важен. Важно, какие задачи они могут выполнять и насколько хорошо они справляются с ними. И дело в том, что они просто продолжают становиться лучше. Неважно, действительно ли ИИ понимает шахматы так, как это делают люди. Важно то, что они могут легко сокрушать человеческих чемпионов мира.
Другая основная причина сомнений заключается в идее, что ИИ достигнет некоего барьера, и некоторые задачи просто окажутся слишком сложными. Но даже если это произойдет, очень трудно сказать, когда. И люди годами ошибались в своих прогнозах. От шахмат до открытого диалога и сложных изображений — люди продолжают ожидать, что прогресс ИИ вот-вот достигнет предела, и они продолжают ошибаться. Способ, которым мы обучаем ИИ, основан на фундаментальных принципах вычислений, которые предполагают, что любая интеллектуальная задача, которую могут выполнять люди, должна быть под силу достаточно большой модели ИИ. И прямо сейчас несколько крупнейших и самых ценных компаний в мире вкладывают десятки миллиардов долларов, чтобы это произошло.
Рекурсивное самосовершенствование и суперинтеллект
Искусственный общий интеллект приводит к рекурсивному самосовершенствованию. В определенный момент эта линия, вероятно, начнет изгибаться вверх. Почему? Потому что ИИ станет достаточно способным, чтобы помочь нам создавать лучший ИИ. Это рекурсивное самосовершенствование. Каждое поколение ИИ делает следующее поколение более мощным. Это произойдет очень легко, как только у нас появится AGI. Если искусственный общий интеллект может выполнять любую компьютерную задачу, которую может выполнять человек, то он может работать над созданием лучшего ИИ.
Но на самом деле, ИИ уже начинает вносить свой вклад в собственное развитие. Например, генерируя лучшие подсказки и создавая лучшие обучающие данные, разрабатывая лучшие графические процессоры, пишущие код для экспериментов, и даже генерируя исследовательские идеи. Со временем мы будем видеть все больше и больше этого. ИИ будет работать лучше и более независимо, и даже делать такие вещи, как разработка новых алгоритмов и открытие новых способов взаимодействия с миром. Насколько мы можем судить, не будет какого-то одного конкретного дня, когда ИИ скажет исследователям отойти от компьютера. Скорее всего, это будет выглядеть так, как мы видим сейчас. Люди намеренно все больше и больше передают управление системам ИИ, потому что они становятся все быстрее, дешевле и умнее. После определенной точки они будут делать то, что люди не могут. Они будут гораздо более способными, придумывая инновации, о которых мы не смогли бы и подумать, и, возможно, даже не смогли бы понять, и каждая инновация будет делать их лучше в открытии следующей.
Рекурсивное самосовершенствование приводит к искусственному суперинтеллекту (ASI). Что же дальше? Что произойдет, если ИИ начнут создавать лучшие ИИ? Следующим шагом после искусственного общего интеллекта является искусственный суперинтеллект, ASI. ASI не просто более способный, чем любой человек, он более способный, чем каждый человек вместе взятый. И после AGI это может не занять много времени. В конце концов, как только у вас есть один AGI, очень легко сделать больше. Вы можете просто скопировать код и запустить его на другом сервере. Это уже происходит сейчас.
Как только OpenAI завершила обучение Chat GPT, она смогла выпустить миллионы его копий, работающих параллельно. И у ИИ есть другие преимущества. Во-первых, они намного быстрее. ИИ, такой как Chat GPT, может легко создать страницу плотного технического текста менее чем за минуту и прочитать тысячи слов за секунды. Лучший шахматный ИИ может победить лучших человеческих игроков, даже если ИИ дается всего одна секунда на выбор каждого хода. Кроме того, ИИ гораздо легче обмениваться улучшениями. Если один из этих ИИ сможет найти способ сделать себя умнее, он может скопировать это на другие миллионы ИИ, которые заняты чем-то другим.
Более того, нет причин думать, что отдельные ИИ остановятся на том уровне, которого могут достичь люди. Исторически это просто не так. Если мы посмотрим на задачи, в которых ИИ достиг человеческого уровня более 5 лет назад - настольные игры, распознавание лиц, определенные типы медицинской диагностики, они все еще продолжают совершенствоваться. Если вы просто представите обычного человека, который чудесным образом имел бы способность запоминать весь интернет, читать и писать в 10 раз быстрее, а также клонировать себя по желанию, то довольно очевидно, как это могло бы выйти из-под контроля. Теперь представьте, что клоны могли бы придумывать способы редактировать свои собственные мозги, чтобы сделать каждого из них более способным. Легко понять, как они могли бы быстро стать могущественными, чем все человечество вместе взятое.
Божественный ИИ и риски для человечества
ASI приводит к богоподобному ИИ. ИИ не начнет творить магию. Мы можем быть уверены, что они не изобретут вечные двигатели или сверхсветовую скорость, потому что существуют физические пределы возможного. Но мы абсолютно нигде не близки к этим пределам. Современные смартфоны имеют в миллион раз больше памяти, чем компьютер, используемый в миссии "Аполлон" на Луну. Но они все еще в миллион раз менее плотны, чем ДНК, которая все еще не достигла физического предела.
Давайте подумаем, как наша нынешняя технология выглядела бы даже для лучших ученых 100 лет назад. Они поняли бы, что гипотетически возможно создать миллиарды устройств, которые почти мгновенно передают гигабайты информации по всему миру, используя мощные радиостанции в космосе. Но они все равно были бы очень удивлены, услышав, что у каждого есть телефон, который они могут использовать для просмотра видео с мультяшными собаками. Мы не знаем, что сможет делать искусственный суперинтеллект, но, вероятно, это будет звучать для нас еще безумнее, чем современный мир для человека из 1920 года. Подумайте об этом так.
Прогресс происходит все быстрее и быстрее по мере совершенствования ИИ. Где это закончится? Процесс самосовершенствования не остановится, пока не останется никаких улучшений, которые можно было бы сделать. Попробуйте представить себе систему ИИ настолько мощную, что ее невозможно сделать умнее, даже используя невообразимо продвинутые инженерные навыки самого мощного из возможных ИИ. Такая система будет упираться в единственные оставшиеся пределы — сами законы физики. В этот момент способности ИИ все еще не будут магией, но они могут показаться нам таковыми. Если это произойдет, мы будем полностью бессильны по сравнению с ними.
Путь по умолчанию и выживание человечества
Чтобы это пошло хорошо, нам нужно выяснить, как сделать ИИ, которые хотят делать то, что мы хотим. Наши лучшие попытки заставить ИИ не делать то, что мы не хотим, все еще довольно ненадежны и легко обходятся. Наши лучшие методы понимания того, как ИИ делает выбор, позволяют нам лишь мельком взглянуть на части их рассуждений. У нас даже нет надежных способов выяснить, на что способны системы ИИ. Мы уже с трудом понимаем и контролируем нынешние ИИ. По мере того, как мы будем приближаться к AGI и ASI, это станет намного сложнее.
Помните, ИИ не нужно ненавидеть человечество, чтобы его уничтожить. Проблема в том, что если мы действительно создадим ИИ, которые создают AGI, которые создают ASI, то для этих возвышающихся машинных богов мы будем выглядеть как ошибка округления. Для ИИ мы можем просто выглядеть как кучка примитивных существ, стоящих на пути множества действительно полезных ресурсов. В конце концов, когда мы хотим построить небоскреб, а на пути муравейник, что ж, плохо для муравьев. Дело не в том, что мы их ненавидим. У нас просто есть более важные вещи для рассмотрения. Мы не можем просто игнорировать проблему. Просто надеяться, что мощные ИИ не причинят нам вреда, буквально означает ставить на кон судьбу всего нашего вида.
Необходимость контроля и регулирования
Другой вариант — остановить или хотя бы замедлить развитие, пока мы не разберемся, что происходит. Мы далеки от того, чтобы контролировать миллионы ИИ, которые так же умны, как мы, не говоря уже об ИИ, которые для нас так же, как мы для муравьев. Нам нужно время, чтобы создать институты для управления этой технологией, несущей риск вымирания. Нам нужно время, чтобы разобраться в науке и инженерии, чтобы создать ИИ, которые мы сможем контролировать. К сожалению, гонка уже идет, и многие разные компании и страны вкладывают десятки миллиардов долларов, чтобы создать самый мощный ИИ, который они могут. У нас даже нет тормозов, на которые можно было бы нажать, если нам понадобится. И мы быстро приближаемся к обрыву.
Мы находимся в критическом моменте, когда наши решения о развитии ИИ будут эхом отзываться в истории. Сделать это правильно — не просто вариант, это необходимость. Инструменты для создания суперинтеллектуального ИИ появляются. Институты для его контроля должны появиться первыми. Каждое действие имеет значение. И у нас заканчивается время.