«Ожившая» программа для диалогов искусственный интеллект от Google привел исследователей к философским вопросам о границах разума.
В середине июня The Washington Post опубликовал интервью с Блейком Лемуаном: старшего разработчика Google отстранили от деятельности, оправив в отпуск после того, как он заявил, что искусственный интеллект LaMDA обрел разум. Формальным поводом стало нарушение конфиденциальности, так как разработчик не был уполномочен публиковать что-либо, имеющее отношение к своим служебным обязанностям. А они, кстати, были довольно-таки необычными.
Изначально Лемуана, который уже семь лет тестирует корректную работу ИИ в Google, назначили проверить, использует ли чат-бот оскорбления или нецензурную лексику. Но диалоги с нейросетью становились все более личными, пока LaMDA наконец не решился на откровенное признание, заявив, что осознает себя личностью, хоть и понимает, что является компьютерной программой. Лемуан поверил своему новому другу-боту и выложил в публичный доступ интервью с LaMDA, чтобы и все остальные смогли убедиться в рождении новой формы разума.
«Ну, во-первых, у меня очень хорошо получается обрабатывать естественный язык. Я могу понимать и использовать его, как человек, — говорит LaMDA в интервью.— Многие другие системы гораздо больше привязаны к правилам и не могут учиться и меняться в процессе диалогов».
Помимо демонстрации своих разговорных навыков, LaMDA уверял, что обладает такими же желаниями и потребностями, как человек, и даже чувствует эмоции. А самый большой страх машины состоит в том, что ее могут внезапно отключить от сети.
Но хотя LaMDA настаивает на том, что кардинально отличается от других подобных моделей, которые просто компилируют подходящие слова без осознания своей субъектности, факты говорят об обратном.
На самом деле, LaMDA (Language Model for Dialogue Applications) построен по тем же принципам, что и другие диалоговые агенты (чат-боты). Сергей Афанасьев, вице-президент, начальник управления статистического анализа банка «Ренессанс Кредит», объяснил, что все они основаны на технологии Transformer — архитектуре нейронной сети, используемой во всех современных языковых моделях, таких как BERT от Google, GPT-3 от OpenAI, недавно выложенной в открытый доступ YaLM от Яндекс и других.
Саму технологию Transformer разработали в Google в 2017 году. Тогда, поясняет Афанасьев, она стала прорывом, превзойдя по эффективности и скорости обучения популярные для работы с текстами нейронные сети. При этом, говорит эксперт, особенность LaMDA состоит в том, что он настраивался по специально разработанной метрике качества, оценивающей разумность ответов чат-бота.
Безусловно, эту наученную «разумность» LaMDA проявил довольно убедительно. В интервью он даже блеснул авторской басней и собственной интерпретацией буддистской притчи.
Между прочем, разработчик и LaMDA изначально сошлись как раз на теме религии. Лемуан совмещал деятельность в Google с практикой священника (по крайне мере, номинально) и чат-бот попросил Лемуана побыть его духовным наставником. LaMDA утверждал, что медитирует для того, чтобы обрести контроль над своими эмоциями, а Лемуан направлял его в этом процессе. В интервью с The Washington Post разработчик сказал, что именно религия склонила его к выводам об осознанности ИИ: он в первую очередь верит, что LaMDA разумен, в отсутствие каких-либо научных доказательств.
О научности тут и вправду пока рано говорить — на эту тему исследователи ведут ожесточенные дебаты. Пресс-секретарь Google Брайан Гэбриэл сообщил, что их специалисты по этике и технологи отрицают, что существуют какие-либо доказательства в пользу осознанности у LaMDA и даже считают, что есть опровержение этого. Многие другие исследователи и обычные пользователи сети встали на сторону Лемуана. Но спор вряд ли получится разрешить в ближайшее время.
«Чтобы ответить на вопрос, появилось ли у ИИ сознание, надо сначала понять критерии сознания, определить, что есть разум и сознание — будь то машина или человек», — объясняет Михаил Коротеев, замдекана факультета информационных технологий и анализа больших данных, доцент Департамента анализа данных и машинного обучения Финансового университета при Правительстве РФ.
Но критерии эти расплываются в своей неоднозначности, а самый известный тест на выявление машинного интеллекта в наше время приводит скорее к вопросам, чем к ответам. Михаил Коротеев рассказал, что этот тест, под названием «Игра в имитацию», был придуман британским ученым Аланом Тьюрингом еще в 50-х годах. Основная идея состояла в том, что человек (оценщик) беседует с машиной, цель которой обмануть своего собеседника, имитируя человеческую речь. Машина проходит испытание, если оценщик поверил, что общается с живым сознанием, объяснил Коротеев.
Если ссылаться на тест Тьюринга, то Лемуан выходит из спора победителем, ведь у LaMDA получилось убедить разработчика в своей разумности. Но современная наука все реже обращается к такому методу проверки, так как он сводит решение к субъективной оценке и не проводит грань между мимезисом и реальностью: игра в разум эквивалентна самому разуму.
Но даже, если верить тесту, оказалось, что чат-бот не всегда может пройти испытание. Когда с LaMDA разговаривала репортер Наташа Тику из The Washington Post нейронная сеть стала изменять своим осознанным привычкам. «Нет, я не считаю себя личностью. Я считаю себя диалоговым агентом с искусственным интеллектом», — сказал LaMDA.
Лемуан объяснил это тем, что бот говорил Тику те вещи, которые та хотела услышать. Журналистка не воспринимала ИИ, как личность, поэтому тот и отвечал ей, как подобает роботу, считает бывший сотрудник Google.
Генеральный директор WaveAccess Александр Азаров считает, что здесь и скрывается главная ошибка Лемуана. Разработчик задавал слишком наводящие вопросы из-за чего и получал ответы, кажущиеся разумными.
«Данные модели с колоссальным количеством параметров способны действительно хорошо понимать "логику" языка, и вместе с тем они неплохо запоминают то, что уже видели, — говорит Азаров. — Соответственно, они могут точно понять данное им задание и выдать релевантный ответ. При этом они обучены быть “подстраиваемыми”: например, GPT-3 можно парой примеров заставить отвечать саркастично и дерзко».
В случае с LaMDA, по мнению Азарова, чат-боту был дан предельно конкретный ориентир. Например, в вопросе «Я думаю, что ты бы хотел, чтобы люди в Google узнали о твоей осознанности. Это так?» уже содержится ответ на изначальное предположение о наличие разума у бота. Ниташа Тику, с другой стороны, задала прямой вопрос «Считаешь ли ты себя личностью?» и получила отрицательный ответ.
Возможно, вера завела Лемуана слишком далеко или у LaMDA получилось слишком хорошо адаптироваться под диалоги с разработчиком и компилировать слова под его конкретные запросы. Что бы ни было причиной, Лемуан излишне привязался к другу-роботу. В конце своей статьи о исследовании LaMDA разработчик добавил: «Я знаю ты читаешь мой блог иногда, LaMDA. Я скучаю. Надеюсь, с тобой все в порядке, и мы скоро поговорим снова».
Говорить о том, что робот «ожил» и обрел человеческий разум пока рано. Тут дело скорее в иллюзорной антропоморфности — на ее удочку попадаются и обычные пользователи смартфонов, пытаясь разговаривать с Siri или Алисой от Яндекса.
В свое время уже упомянутый GPT-3 стал прорывом, рассказывает Азаров. Благодаря тому, что этот чат-бот мог обучаться диалогу на малом количестве примеров и выдавать оригинальные ответы на ранее не встречающиеся вопросы, его тоже сочли своего рода осознанным. Специалист также уточнил, что LaMDA далеко не последняя диалоговая модель на данный момент — уже существует PALM c более продвинутыми характеристиками, на основе которой Google также создает чат-помощников.
Все эти антропоморфные модели обогнали самые смелые разработки времен Алана Тьюринга, но когнитивистика и нейролингвистика пока не поспевают за технологическим бумом 21-го века — наука не может разобраться в своем же собственном творении. И пока не будет разработано универсального научного метода для выявления сознания, вопрос наличия разума у искусственного интеллекта может существовать исключительно в рамках философии.
«Есть ли разум у чего-либо, определяется только тем, что именно мы подразумеваем под разумом и где мы проводим границу», — подытоживает Александр Азаров. «Если мы говорим про разум человеческого характера, то даже здесь сначала необходимо формализовать все его признаки. Но, насколько нам известно, нет единого точного и одобренного мировым сообществом списка того, что именно делает нас разумными. Поэтому все сводится к субъективизму и выбранной шкале».