ИИ и ядерные аналогии

26 ноября 2023, 14:04

Первую атомную бомбу на полигоне в Нью-Мексико американцы взорвали 16 июля 1945 года. Руководитель Манхэттенского проекта американский физик-ядерщик Роберт Оппенгеймер в тот момент вспомнил строки: «Теперь я стал Смертью, разрушителем миров». Это грубая аллюзия на строки из индуистского священного писания Бхагавад-гиты. В оригинале — «Я — время, великий разрушитель миров, несущий гибель всему живому».

IMAGO/Christian Ohde/ТАСС
Читайте Monocle.ru в

Времени же на создание самого разрушительного оружия на планете и осознания его страшного потенциала человечеству потребовалось совсем немного. За точку отсчета берем год открытия радиоактивности, 1896-й. Спустя 37 лет Лео Силарду пришла в голову идея цепной ядерной реакции. Не прошло и полувека, как атомные бомбы упали на Хиросиму и Нагасаки.

В 1930-х все исследования цепных реакций были строго засекречены, а ученые наперегонки совершали одно открытие за другим, покоряя природу или военный атом. В 1940-х многие из них уже писали антивоенные петиции и требовали остановить разработки мощных вооружений. Участники Манхэттенского проекта, в том числе Оппенгеймер и Силард, выступали против удара по японским городам, а после войны — за ограничение ядерной гонки.

Эта ретроспектива может быть полезна сегодня разработчикам технологий искусственного интеллекта (ИИ) и скромным наблюдателям этого захватывающего процесса. За последний год дискуссии о перспективах ИИ, его рисках, возможностях, угрозах и этических рамках вышли на новый уровень. Об этом спорят ученые, предприниматели, инвесторы, политики, правительства и межгосударственные советы. Журнал The Economist увидел «думеров», которые убеждены в рисках для человечества, и «бумеров», требующих наращивать разработки без ограничений. И конечно, есть глобальные корпорации, мечтающие о сверхприбылях или сверхвласти.

Настораживает, правда, то, что о реальных успехах в области разработки технологий ИИ и, главное, об их ближайших перспективах молчат сами их создатели. Пользуясь нашей исторической «ядерной» аналогией, вопрос в том, мы сейчас только открываем радиоактивность и подходим к созданию модели атома либо уже совсем близки к формуле цепной реакции, а значит, не за горами «ядерные испытания» ИИ, и, чем черт не шутит, его боевое применение?

Опасность заключается в том, что если решение о сбросе уранового «Малыша» и плутониевого «Толстяка» в 1945 году принимали какие-никакие, но люди, то риски ИИ заключаются в его выходе из-под контроля человека и работе в автономном режиме.

Сергей Карелов, один из экспертов в этом выпуске журнала, говорит, что прорыв уже, вероятно, произошел. И модели ИИ не просто работают в рамках ограниченных человеком баз данных, но и способны искать информацию в открытом мире, в перспективе контактировать друг с другом без участия создателя. «ИИ, который мы имеем сегодня, еще вполне маленький ребенок, трех или, может, семи лет, но вся проблема в том, что он растет с колоссальной скоростью», — говорит Карелов.

Как трактовать поведение разработчиков ИИ? Почему одни говорят о необходимости быстрых инвестиций, а другие призывают к этическим ограничениям? Можем ли мы предположить надувание гигантского технологического пузыря из системы обычного машинного обучения, которая никогда не обретет сознание? Ведь совсем недавно мы наблюдали идентичную картину в сфере зеленой экономики, с помощью которой обещали за несколько десятилетий спасти мир от исчезновения.

Или, заканчивая искомую аналогию, ученые находятся на пороге принципиального открытия и стремятся не допустить, чтобы технология в первую очередь попала к конкурентам? Ведь, например, в Китае никаких моральных и этических ограничений на пути разработок ИИ не будет.

В начале 1940-х мир чудом прошел по краю большой катастрофы, поскольку и Германия, и союзники доработали свое ядерное оружие лишь к завершению противостояния, когда его исход был в целом определен с помощью привычных вооружений. Но затем понадобилась японская трагедия и холодный ужас Карибского кризиса, чтобы стороны решили перейти к сокращению ядерных арсеналов.

ИИ может и не спросить, когда мы закончим бесконтрольные эксперименты.