Когда модель превзойдет алгоритмы

Наталья Быкова
обозреватель «Монокль»
26 ноября 2023, 14:15

О том, как модели искусственного интеллекта «выходят за флажки» написанных для них инструкций, «Моноклю» рассказал генеральный директор корпорации СОРМ Сергей Большаков

ИЗ ЛИЧНОГО АРХИВА СЕРГЕЯ БОЛЬШАКОВА

— Сергей, что представляют собой самые прогрессивные на сегодня модели искусственного интеллекта, из чего они состоят?

— Начнем с того, что любая модель искусственного интеллекта — это алгоритмы, способные самообучаться. Все они, даже самые прогрессивные на сегодня, представляют собой пока еще очень примитивный аналог человеческого мозга, их работа завязана на определенные математические инструкции, которые выполняет техника. В процессе эксплуатации алгоритмы могут корректироваться или дополняться новыми инструкциями, что происходит не само по себе, а с участием людей — разработчиков, аналитиков данных, — которые профессионально занимаются выявлением несовершенств в моделях искусственного интеллекта. На каждом этапе пересмотра модели выбираются те математические методы, которые дают наименьшие погрешности. Обычно точность алгоритмов для решения конкретных задач составляет более 50 процентов, эффективными считаются те из них, точность которых составляет более 95 процентов. Если удается создать алгоритм с 99-процентной точностью, разумеется, его сразу же интегрируют в модель. Это непрерывная работа, и чем больше умных людей в нее вовлечено, тем лучше будут результаты.

— Опасения и страхи общества, в том числе профессионального сообщества из сферы IT, связаны с гипотетическим выходом ИИ из-под контроля. На каком этапе разработчики, аналитики данных теряют возможность контролировать свою модель искусственного интеллекта?

— Скорее всего, это может произойти на любом этапе. Вот, например, поиск «Яндекса» построен на алгоритмах искусственного интеллекта. В них заложены некие метрики, на основе которых выстраивается система ранжирования в поисковых запросах. Были известны случаи, когда на претензии в необоснованном занижении ссылок профильные специалисты компании отвечали, что сами не понимают, почему это так сработало. То есть это сейчас уже реально, что сами разработчики могут не знать, почему система искусственного интеллекта приняла определенное решение, когда по написанной для нее математической инструкции она должна была действовать иначе.

Конечно, это может быть и ошибка исходного алгоритма, которую нужно исправлять, а может, модель уже сама начала думать как человек — порой интуитивно и субъективно. Хотя, на мой взгляд, до этого еще далеко, пройдет еще несколько десятков лет, прежде чем алгоритмы будут усложнены настолько, что смогут имитировать работу человеческого мозга, то есть принимать решения, опираясь на свой предыдущий опыт и построенную на его основе проекцию на будущее.

Вопросы этики в контексте развития ИИ становятся все более актуальными. Люди должны быть уверены, что он не выдаст в ответ на запрос пользователя информацию, которая может привести к нежелательным последствиям и даже трагедиям

— То есть велика вероятность, что мы уже имеем рабочие модели ИИ, которые могут не просто принимать решение по заданной программе, но и создавать программы, по которым принимают решение?

— Если мы говорим об экспериментальных технологиях, то скорее всего да, а если о технологиях, которыми сегодня пользуются обычные люди, то до этого уровня они еще не развились.

— Что такого создали в OpenAI, что привело к разладу в руководстве компании и скандалу мирового масштаба?

— Мы можем об этом только догадываться. Но, похоже, здесь большую роль сыграл человеческий фактор. Наверное, инвесторы давили на совет директоров, чтобы быстрее запускались и соответственно окупались экспериментальные модели, а у директора могло быть другое мнение по поводу развития технологии.

— Кто сегодня главный бенефициар гонки по форсированному запуску систем искусственного интеллекта?

— Это государства и транснациональные корпорации, которые вливают все больше средств в искусственный интеллект, понимая, что за этим будущее. История уже переживала подобный ажиотаж. К примеру, в конце девятнадцатого века многие автопромышленники вкладывались в разработку автомобилей на электрической тяге, а в качестве конкурирующих технологий для колесного транспорта рассматривали паровые двигатели. Но открытие свойств нефти, возможности получать из нее топливо для автомобилей, придало совершенно новый импульс и этой, и всем другим отраслям. Все захотели себе как можно больше нефтяных ресурсов, воевали за них, инвестировали в их добычу и переработку и обогащались на этом. С искусственным интеллектом то же самое, только этот бум не нефтяной, а технологический. Кто будет первым в цифровизации, тот и будет доминировать в будущем. От развития ИИ будет зависеть практически все в нашей жизни, в том числе обороноспособность страны. Если, к примеру, ракета будет запущена со стороны вражеского государства искусственным интеллектом, то человек может просто не успеть отреагировать ответными мерами. У него будут доли секунды на оценку ситуации, принятие и согласование решения, так что ответное решение тоже должен принимать очень мощный искусственный интеллект, мгновенно распознающий угрозу.

Для государства владение мощным ИИ можно сравнить с обладанием атомной бомбой. Это возможность усиления контроля и влияния, и не только в пределах границ своей страны. Для корпораций это возможность заработать еще больше денег.

Конечно, и обычных людей можно назвать выгодоприобретателями. Они получат возможность пользоваться более тонко настроенными системами в разных отраслях экономики, а значит, получат больше комфорта на работе и дома, больше заботы об экологии, меньше преступности и так далее. И все это начинает воплощаться уже сегодня. В частности, китайские полицейские носят на дежурство специальные очки, которые с помощью ИИ помогают распознавать лица в толпе с изображениями преступников. Многие мегаполисы, в том числе Москва, увешаны видеокамерами, которые передают изображения в единый информационный центр, который с применением ИИ обрабатывает видеопотоки и выдает их по запросам правоохранительных органов, городских служб и прочих госструктур для принятия решений.

— Один из важных этапов в истории ИИ – запуск в 2018 году чат-бота GPT, новые версии которого представляют собой революционные языковые модели. Вчера GPT просто мило общался с пользователями, сегодня уже может тестировать их на профпригодность; может сдать вступительные экзамены в учебное заведение, написать дипломную работу (это можно расценивать и как помощь человеку, и как первый шаг к его вытеснению из интеллектуальной сферы деятельности). А дальше какая у него цель, где он себя еще проявит?

— Цель — совершенствование до эталонной модели, которая каждую задачу будет решать со стопроцентным результатом. Этот чат-бот был создан для общения, и в процессе общения с миллионами людей он учится все лучше понимать тех, кто к нему обращается. Он уже много знает, умеет принимать решения на основе входных параметров, но еще не умеет думать, как использовать накопленную информацию для принятия решения, если такая функция не заложена в его в алгоритме. Допустим, если закачать в него всю математическую теорию, он сможет ответить на вопросы по ней, но не сможет применить ее для решения математической задачи. Но научить его этому реально, и это будет одна из следующих целей.

— Как будет развиваться искусственный интеллект в течение ближайшего десятилетия и стоит ли его сдерживать, как предлагает Илон Маск?

— Да, Илон Маск сказал такую громкую фразу, что есть ненулевая вероятность, что искусственный интеллект в итоге убьет все человечество. Вопросы этики в контексте развития ИИ становятся все более актуальными. Люди должны быть уверены, что он не выдаст в ответ на запрос пользователя информацию, которая может привести к нежелательным последствиям и даже трагедиям. В начале этого года чат-бот Eliza подтолкнул к суициду доверявшего ему жителя Бельгии — это очень показательный пример того, как могут навредить технологии, если их не контролировать. Пользователь также может спросить: как изготовить бомбу, как причинить ущерб определенному государству, сообществу людей, человеку и так далее. Чат-боты достигли таже больших успехов в генерации фото- и видеоизображений, которые могут скомпрометировать известных людей, как это было, например, с созданием очень правдоподобных фейков против Дональда Трампа. Конечно, это нужно регулировать и сдерживать. Я считаю, что ограничения не должны замедлять научно-технический прогресс, но при этом остаюсь сторонником информационной безопасности и цифровой гигиены.