Прогноз развития ИИ в России и в мире
Владимир Аверба х, старший управляющий директор — начальник управления национального развития AI Сбербанка:
— В России есть хороший задел по фундаментальным исследованиям в области ИИ. В частности, у нас сильные позиции по теме оптимизации вычислений: российские ученые в прошлом году обнаружили способ оптимизации ИИ-моделей на 10‒15 процентов без потери в качестве, снижая количество вычислительных мощностей, необходимое для их использования.
В прикладной сфере ключевым преимуществом отечественных ИИ-моделей является более глубокое понимание контекста на русском языке, а также понимание культурно-исторических особенностей России в сравнении с зарубежными моделями, что позволяет получать более качественные результаты для русскоязычных запросов.
Чтобы ответить на вопрос, когда в РФ будет создан сильный ИИ, важно определиться, какими свойствами он должен обладать. Например, после анонса модели o3 от Open AI в декабре прошлого года некоторые СМИ уже объявили, что в мире появился общий ИИ, так как модель получила 87,5% в бенчмарке ARC-AGI. Точный прогноз здесь дать невозможно. Более того, из-за разных подходов к определению свойств мы можем совсем пропустить рубеж «AGI создан». Но, что очевидно, эксперты в сфере ИИ постоянно сдвигают свои прогнозы: если раньше считалось, что сильный ИИ появится через десятилетия, то сейчас большинство сходятся во мнении, что это вопрос нескольких лет.
Евгений Елфимов , основатель, генеральный директор российской технологической компании Inventorus:
— Прогнозы относительно появления общего искусственного интеллекта, AGI, разнятся среди экспертов. Помню, что Сэм Альтман из OpenAI предсказывал появление AGI уже к 2025 году, тогда как более консервативный Ян Лекун, руководитель отдела исследований ИИ компании Meta (в России признана экстремистской. — «Монокль»), в своем недавнем интервью Bloomberg объяснял, что в ближайшее время появления AGI ждать не стоит. Я склоняюсь больше к мнению Яна: недостаточно просто масштабировать существующие языковые модели, тут дело не только в росте количества средств на инфраструктуру и обучение. Истинный AGI должен обладать эмоциями для постановки целей и понимания последствий своих действий, уметь обучаться на видеоданных, чтобы лучше понимать взаимодействие объектов и окружающей среды. Всего этого принципиально лишены существующие модели-трансформеры. Они лишь идеальные предсказатели следующей буквы или слова в предложении, опирающиеся на колоссальный объем статистических данных и только начинающие свой путь в мире мультимодального обучения. В любом случае рынок ИИ развивается семимильными шагами, и я уверен, что мы застанем время, когда ИИ будет превосходить человеческие возможности в широком спектре когнитивных задач.
Успешные в мировом масштабе ИИ-продукты российских разработчиков выделяются в первую очередь тем, что профессиональные ИИ-инструменты не просто используются ими «как есть», а дообучаются и настраиваются с учетом тщательно собранных и обработанных специализированных данных, которые часто важнее выбора самого инструмента.
Очевидный пример, который я могу привести, — экосистема Inventorus, над разработкой которой мы трудимся с 2023 года. Ключевым активом и предметом нашей гордости является уникальная база научно-технической информации, содержащая более 500 миллионов единиц (статьи, патенты, отчеты).
Конечно, мы опираемся на лучшие мировые практики и тщательно следим за развитием больших языковых моделей. Сейчас, например, максимально пристально анализируем возможности DeepSeek. Однако мы убедились в том, что без глубокого понимания предмета (в нашем случае — структуры и особенностей мировых научно-технических данных) невозможно достичь успеха, какие бы новейшие ИИ разработки вы ни применяли.
Василий Громов , доктор физико-математических наук, профессор, заместитель руководителя департамента анализа больших данных и искусственного интеллекта НИУ ВШЭ:
— Базовым диалектическим противоречием современной российской науки является растяжка между попыткой играть в догонялки с Западом (мы решим ту задачу, что вы уже решили, только хуже и с годичным опозданием) и попыткой бесконечно воспроизводить задачи, поставленные титанами советской науки еще в 60-е годы прошлого века. К сожалению, ситуация с сильным искусственным интеллектом здесь не исключение.
Вместе с тем наличие сильных математических, физических и философских школ позволяет нам ставить свои, принципиально новые задачи, позволяющие прийти к сильному искусственному интеллекту — и выиграть уже начавшуюся гонку, сравнимую и по масштабам, и по важности с лунной и атомной. При этом мы можем опираться именно на те научные направления, в которых российская наука традиционно лидировала: «импортозамещение постановок задач».
В качестве примеров такого рода постановок приведу проекты сильного ИИ в ВШЭ:
— метафора «Задачи донесения ложки с манной кашей до рта и чтения Хайдеггера в оригинале естественным интеллектом осуществляются с помощью одной и той же нейросетевой архитектуры»: СИИ как результат процессов самоорганизации элементарных когнитивных элементов;
— метафора «Лакуны в нашем языке как слепые пятна в базах данных обучения СИИ»: установление крупномасштабной структуры естественного языка для установления его базовых характеристик: внутренние размерности, полости в семантическом пространстве и создание нового поколения больших языковых моделей на их основе;
— метафора «Изобретающая машина»: создание (в автоматическом режиме) семантической сети научных концепций в рамках парадигмы интерпретируемого ИИ. В сочетании со слепыми пятнами из пункта 2 дает способ автогенерации (и по возможности автопроверки) новых научных гипотез — машина, творящая открытия, — проверки новизны научных статей, предложений о грантах и так далее, независимой от экспертного оценивания и формальной наукометрики, контролируемой западными странами.
Олег Серебренников , венчурный инвестор, основатель ведущего разработчика лингвистического программного обеспечения ЗАО «МедиаЛингва» (электронные словари «МультиЛекс» и «АльфаЛекс») стоящего у истоков технологий компьютерной лингвистики и облачных поисковых ресурсов (поисковик «Следопыт»):
— Вместо экстенсивного развития через затаскивание мигрантов из стран бывшего СССР следует обеспечить рост производительности труда. Результатом развития ИИ должна стать частичная или полная роботизация труда через создание новых поколений роботов, повышение производительности старых и ускорение роботизации отраслей в целом.
Направления, которые, на мой взгляд, необходимо развивать:
— сбор больших данных, что критически важно для развития суверенного ИИ. В России созданием корпусов данных занимаются на инициативной основе только крупнейшие IT-компании, такие как «Яндекс», «СберТех» и аналогичные. Абсолютно необходимо организовать эту работу на уровне государства, создать кооперацию, в том числе учебных заведений, где студенты были бы вовлечены в работу по сбору, очистке и обогащению данных;
— файн-тюнинг открытых моделей — это «полировка» опубликованных весов китайской DeepSeek-R1 или других современных моделей. Их можно «заточить» под определенные цели дополнительным тонким обучением с подкреплением на основе обратной связи от человека — файн-тюнингом. Это направление может быть в разной степени капиталоемким и позволяет войти в рынок новичкам;
— улучшение существующих архитектур. Регулярно появляются новации, позволяющие снизить затраты на обучение и работу моделей LLM/LVM. Нужно организовать вовлечение существенного числа ведущих IT-компаний, научных школ и учебных заведений в работу над созданием новых научных подходов. Здесь нужна состязательность, но нельзя отдавать право оценки бюрократам, крайне желательно чтобы оценку давали те, кто участвует;
— создание новых фундаментальных моделей LLM/LVM и архитектур. Здесь логично дать небольшие деньги основным IT-компаниям, научным школам и учебным заведениям, объявив конкурс на создание прототипа фундаментальной модели FM (Foundation Models) и оценку результатов конкурса проводить силами тех же участников или другим способом, который трудно компрометировать коррупционной схемой, чтобы гарантировать получение «чистого» результата. Затем дать возможность каждой из школ создать свою LLM/LVM;
— внедрение. Создание экосистемы бизнеса, который мог бы опереться на помощь государства при внедрении ИИ, прежде всего с целью ускорения роботизации. Это типичное поле работы стартапов, и потому здесь ключевым окажется доступ к капиталу и пропаганда деловой активности в противоположность идее «пойду-ка работать я в “Газпром”, там зарплаты высокие».
Сергей Бражник , экс-сотрудник Академии «Яндекса», эксперт Центра ИИ НГУ в области консалтинга и обучения госслужащих в сфере искусственного интеллекта, управляющий партнер онлайн-университета «Зерокодер» (обучение работе с нейросетями, промпт-инжинирингу и разработке без написания кода (no-code):
— Оценивая российский рынок ИИ-технологий, можно сказать, что отечественные нейросети, такие как YandexGPT, GigaChat, уже показывают отличные результаты в генерации текстов любой сложности — от заметки в блог до структуры бизнес-плана для запуска стартапа. Они могут закрыть базовые потребности бизнеса в выпуске большого объема контента, например для социальных сетей или рекламных креативов; они научились распознавать даже бессвязные запросы, то есть поиск «того самого промпта», который мог передаваться как сакральное знание еще в 2023 году, уже не нужен.
Пока российским нейросетям не удалось догнать современную модель ChatGPT o1 от Open AI и новую китайскую DeepSeek-R1. Эти модели умеют «рассуждать», то есть имитируют процесс логического построения мысли, когда сложная задача разбивается на этапы и прорабатывается каждый отдельный этап. Такой режим в целом можно повторить в YandexGPT и GigaChat, используя прием Chain of thoughts, но он не всегда работает.
Западная и китайская нейросети также умеют обращаться за дополнительными данными в интернет, что очень помогает получать актуальные ответы. Ведь сами модели обучаются довольно редко. Например, ChatGPT знает о мире до октября 2023 года. Причина — большие ресурсы, необходимые для переобучения модели. Режим поиска в сети как раз решает эту проблему, хоть и не полностью.
Еще один момент, который заметен при работе с отечественными и иностранными нейросетями, — их словоохотливость. ChatGPT обычно выдает в полтора, а то и в два раза больше текста, чем российские модели. Можно предположить, что работающие в бесплатном режиме отечественные нейронки экономят на вычислительных мощностях.
Что касается подхода к пользовательскому интерфейсу, то глобально в мире все мимикрируют под ChatGPT. Хотя, конечно, и он не то чтобы придумал что-то сильно новое. Все нейроинструменты стараются разместить в одном окне чата работу с текстом, файлами, изображениями и аудио.
Так же действует Сбер. У GigaChat есть похожий на ChatGPT веб-интерфейс, но есть и уникальное удобное, на мой взгляд, решение — бот в «Телеграме», который повторяет почти все функции веб-версии. «Яндекс» тоже повторяет веб-«лидера», но со своими ограничениями: на вход YandexGPT получает только текст, а на выход может выдать текст и картинку, сгенерированную картиночной нейросетью YandexART. Чтения файлов пока не предоставляется.
Если говорить про различия, которые заметны разработчикам, а не обычным пользователям, — «Яндекс» и Сбер выбрали свой путь при создании API. Во всем мире хорошим тоном считается унификация API под формат лидера или самого первого решения, как с пользовательским интерфейсом.
Например, API DeepSeek полностью повторяет API ChatGPT, что упрощает интеграцию и поддержку кода, в то время как с API и платформами YandexGPT с GigaChat надо дополнительно разбираться.
Олег Полстовалов , доктор юридических наук, профессор, руководитель аппарата комиссии «Технологическое лидерство» Экспертно-координационного центра комиссий Государственного совета Российской Федерации:
— Одним из максимальных рисков расширения сфер применения СИИ остается потеря творческого потенциала в литературе и даже в искусстве. Переход от больших языковых моделей к когнитивным моделям как универсальному языку общего ИИ не исключает гегемонии универсализма при размене на это преимуществ русского языка. Переводы на русский язык английской классики лучше оригинала, и это не фигура речи: Корней Чуковский переводил произведения О. Генри, Эрнеста Сетона-Томпсона, Марка Твена и других с «улучшением» как решением осознанной задачи, Борис Пастернак делал превосходящие оригинал переводы английских романтиков Перси Биши Шелли, Джона Китса и Джорджа Гордона Байрона ввиду очевидности большей выразительности и художественной образности русского варианта.
Вместе с тем ИИ-комбинаторика литературного классического наследия не «создаст» нового гениального писателя, когда в принципе по авторству мы получаем нечеловекоцентричное произведение, которое может быть «улучшено» по сюжету, изобразительным средствам, заложенным смыслам. Но это не будет новый гений уровня Достоевского. Можно даже компенсировать отсутствие пейзажистики Достоевского за счет комбинаторики с творчеством Маркеса, но это не «новый гений», а «синтетический кентавр» из двух великих писателей. Человеческий производный примат здесь присутствует, но подобный вызов может оказаться непреодолимым для писательской гильдии при либеральной рыночной модели экономики. Творческое вырождение естественного, оригинального — вполне прогнозируемая перспектива в меркантилизированной системе ценностей. Сценарии будет дешевле сгенерировать, чем написать в муках человеческого творчества. Но в результате ИИ-выхода за пределы человеческого в литературе и поэзии невозможно создать ничего подлинно нового.