Почему ИИ не знает, что у кошки четыре ноги

Михаил Захаров
14 апреля 2025, 06:00
№16

Важнейшие вопросы, связанные с распространением искусственного интеллекта, оказывается, почти не ставятся и совсем не решаются. По крайней мере, так было до этого интервью

АНДРЕЙ ЕПИХИН/ТАСС
Игорь Ашманов: «У нас должны быть свои приоритеты. И не факт, что генерирующие нейронные сети, болталки, бредогенераторы, к нашему цивилизационному будущему имеют отношение»
Читайте Monocle.ru в

Наш разговор с Игорем Ашмановым, специалистом в области искусственного интеллекта и разработки программного обеспечения, главой компании «Ашманов и партнеры», начался с вопросов: почему многие доступные в России интерактивные сервисы в интернете, где вам отвечает чат-бот с генеративным искусственным интеллектом, на политически и исторически значимые вопросы дают совершенно «не наши», антироссийские ответы? и можно ли что-то с этим поделать?

При том что к американскому GhatGPT напрямую в России не подключиться, практически эта технология доступна на многих сайтах. Да и чат-боты официально российского происхождения могут поговорить с вами на важные темы уклончиво, а то и вовсе не официально и не «по-российски».

Наш собеседник подробно ответил, но затем сам поставил вопрос, причем уже шире. Охарактеризовав популярное направление развития и внедрения в жизнь ИИ как бредогенератор, Игорь Ашманов указал на целый ряд нешуточных опасностей применения этой технологии, особенно в попытках заменить ею общение с человеком, как в госорганах, так и в коммерции, использования ее для принятия важных решений и — на другом уровне, но с далекоидущими последствиями — ее применения учащимися. А также на то, что распространение ИИ сопровождается порядочной безответственностью.

Но есть и позитив. ИИ, не генеративный, нужен нам в промышленности, необходим в военных применениях. А за пределами этих и некоторых других насущных задач мы все еще свободны от того, чтобы скормить ему миллиарды рублей и гигаватты энергии. И у нас есть возможность остаться свободными не только от материальных затрат, но и, что еще важнее, как личности, но это потребует ума — настоящего — и усилий, предпринимать которые мы пока что не разучились.

«Повесточка» в методичках

— Надо начать с самого начала. ChatGPT или другие нейронки с большой лингвистической моделью, LLM, которых сейчас много, в основном производятся в США. Да, недавно был всплеск энтузиазма по поводу китайского DeepSeek. Но даже китайский DeepSeek, если его потрепать и поспрашивать, в некоторых обстоятельствах говорит, что сделали его в американской компании OpenAI, а вовсе не в Китае.

Это не значит, что его там сделали, а значит, скорее всего, что это сборная солянка, Франкенштейн.

Короче говоря, больших лингвистических моделей много, они разные, но все они делаются преимущественно в Америке. И уж как минимум движок, который их оживляет, то есть сама нейронная сетка, нейронный фреймворк, он точно придуман и сделан в США. 

Как эти модели учатся, довольно хорошо известно, есть довольно много инструментов для их инструктирования. Существует массовая легенда, которая зацепила и наших людей тоже, что искусственному интеллекту дают просто походить по интернету, выкачать все тексты на свете, после чего он становится очень умным. Но это очень далеко от истины. 

Там довольно много ручной работы, и эту работу порой делают десятки тысяч человек. В частности, есть так называемые асессоры, которых нанимают в Нигерии, в Индии и других странах, низкооплачиваемые, по возможности с английским языком, которым дают задание обучать LLM. 

Например, есть вопрос к нейронке, ChatGPT или любой другой, и есть пять ее возможных ответов. Асессорам нужно выбрать оценку от «неприемлемо» до «очень хорошо» и поставить пять оценок. При этом существует методичка — страниц на тридцать, как рассказывают участники, — которая объясняет, как именно выставлять оценку, что хорошо, а что плохо. 

Вот в этих методичках была «повесточка» в полный рост: и экологическая, и ЛГБТ*, и русофобская, и либеральная, и все, что хочешь. То есть туда закладывалась либеральная модель мира со всей этой ерундой и гадостью последние двадцать пять лет.

Наши «отечественные» большие лингвистические модели, которые у нас преподносятся как сделанные с нуля, на самом деле таковыми не являются. В первое время, когда на нашем горизонте появился ChatGPT 3.5, это произошло в январе два года назад, у нас в IT-отрасли и в медиа возникла истерика. Люди в больших компаниях, которые до этого рапортовали наверх всем, включая самого большого начальника, о том, что у них тоже есть искусственный интеллект, что они в этом очень хорошо понимают и впереди планеты всей, пришли в ужас, потому что ничего подобного сделано не было, а начальник мог бы спросить, почему.

И дальше у них была прямо гонка, как быстро-быстро показать, что у них тоже это есть. Естественно, все было взято заподлицо, с цельнотянутыми движками, с цельнотянутыми данными и так далее, а затем переупаковано, чтобы предъявить и сказать, что у нас есть то же самое.

Поэтому эти большие модели в течение года-полутора как минимум на вопрос, кто тебя сделал, отвечали, что их сделала американская корпорация OpenAI. 

Там, в этих наших цифровых гигантах, настолько люди наглые и беспардонные, что они поленились такое правило руками написать: когда спрашивают «кто тебя сделал?», надо сказать, что сделала их компания. Они настолько были уверены, что всем заморочат голову, что поленились сделать это руками. А это, в общем-то, совершенно нетрудно.

— Как можно понять, что полноценной «переупаковки» так и не произошло? Существуют ли интерактивные системы, которые обучались преимущественно на российском контенте? Ведь их широко используют, в том числе учащиеся при подготовке ответов на учебные задания.

— Вы, наверное, слышали истории, когда генеративному ИИ-сервису говорят нарисовать гайку, а он рисует орех. Почему? Потому что в английском языке есть два омонима. Nut — это и гайка, и орех. Сразу видно, что внутри «отечественного» движка запрос сначала переводится на английский, а уж дальше происходит ошибка с выбором не того омонима. 

Нельзя принимать с помощью искусственного интеллекта автономные решения, юридически значимые, которые влияют на судьбу человека. Нельзя заменять учителя, нельзя общаться без объявления, обманывать, антропоморфизировать искусственный интеллект, притворяться, что он человек

Это прямое доказательство, что это цельнотянутая вещь. Потом, конечно, эта переупаковка стала проникать глубже, но, в общем, наш искусственный интеллект очень вторичен. Нет у нас своих нейронных фреймворков. Нейронный фреймворк — это что-то вроде нейронной операционной системы, которая исполняет поверх себя всякие нейронные ИИ-приложения, в том числе большие лингвистические модели.

Вот этой нейронной операционной системы у нас нет. У нас есть западные нейронки, которые мы скачиваем в исходных текстах (как Linux), здесь компилируем и потом поверх них строим эти большие лингвистические модели, очень часто тоже либо по статьям американцев, либо просто есть готовый код и данные.

А потом берем и запускаем приложения на этих нейронных фреймворках — там разные приложения есть: распознавание лиц, генерация текста, генерация голоса и так далее. Вот это все очень вторично, и все это пронизано западной либеральной повесткой и ненавистью к русским. Это нашим разработчикам ИИ удается каким-то образом замаскировать.

Одни ИИ-разработчики просто запрещают своим моделям отвечать на чувствительные политические вопросы, например на вопрос «чей Крым?», про СВО и так далее. Другие разработчики ИИ-моделей как-то по-другому это делают, что-то пытаются подменять на более «правильные» ответы.

Все они, в общем, пытаются эту вражескую повесточку в «отечественном» ИИ-продукте как-то нейтрализовать, но она все равно вылезает в разных местах, потому что предсказать, какой вопрос задаст массовый пользователь, довольно сложно. А масса этой повесточки внутри большой лингвистической модели — гигантская, потому что был скачан гигантский объем текстов и потом обработан асессорами.

OpenAI, по некоторым сообщениям, нанимала 50 тысяч человек, которые непрерывно работали на внедрение этой повестки, на то, чтобы отшлифовать этот ChatGPT так, чтобы он был «политически правильным» с их точки зрения. 

Поэтому любое бездумное и неконтролируемое внедрение такой штуки в образовательную сферу или в сферу государственного управления — это просто диверсия, это антигосударственная деятельность, измена, с моей точки зрения.

Ментальный доширак и «охлаждение» цифровизации

— А есть ли шанс, что у нас появятся свои такие же, — это другой вопрос. Я думаю, что это тоже нельзя делать, даже если оно «импортозамещенное», отечественное. Потому что это выхолащивает вообще все. Нельзя заменять госуправление, образование вот этой дрянью. 

Между прочим, вы наверняка не пропустили этот скандал, недавно много было написано о том, что список стран, против которых Дональд Трамп ввел санкции в начале апреля, включает необитаемые острова, где одни пингвины водятся.

Я недавно разговаривал с одним помощником законодателя, который предложил на встрече некие варианты законопроекта и, немного смущаясь, сказал: «Ну я тут немножко с помощью ChatGPT сгенерировал». Вы представляете, что это такое? Человек сгенерировал законопроект для России с помощью ChatGPT и принес своему депутату. 

Вот это безумие вообще должно быть остановлено, даже если там внутри нет вражеской повесточки. Но упомянутый помощник, правда, сказал мне, что, когда он генерировал текст для законопроекта (а там было о деструктивном контенте), ChatGPT сопротивлялся и говорил: «Вы почему называете ЛГБТ деструктивным контентом? Это неправильно». То есть повесточка там тоже прорывалась. 

На самом деле любое внедрение искусственного интеллекта — пусть даже отечественного — в образовании, в общении с гражданами, когда, например, чиновники сейчас вместо себя выставляют чат-ботов, — это возможность снять с себя ответственность и вообще просто не допустить граждан к общению с властью, поставить им барьер. Потому что чат-боты тупые, реальных проблем они не решают, но заговаривают зубы, а пробиться к живому оператору практически нельзя. 

Та же самая проблема есть, естественно, и в коммерческих компаниях. Там тоже клиентская поддержка давно уже не помогает клиенту, а отгоняет его, снижая нагрузку на контакт-центр и экономя деньги на живых операторах.

Надо понимать, что внедрение искусственного интеллекта в социальную сферу везде кардинально понижает качество взаимодействия. Именно понижает, а не улучшает. И приучает людей к низкому качеству. Это такой ментальный доширак.

Вообще, надо понимать, что это бурное внедрение ИИ везде в социальной сфере, в обществе, государстве, которое идет с подачи цифрового бизнеса, чиновников-цифровизаторов и так далее, абсолютно безответственно, потому что мы не понимаем, что именно внедряется, это черный ящик, а возможно, к тому же с чужой повесткой.

Самый простой способ это проверить — дать один и тот же запрос генеративному ИИ несколько раз. Ответы каждый раз будут разные. Часто противоречащие предыдущим.

Нет никаких сертифицирующих центров, никаких способов сертификации, никаких требований по тому, какой искусственный интеллект можно внедрять в социальную сферу, например к детям, в образование и так далее.

У нас есть комитет 164 (Технический комитет по стандартизации № 164 «Искусственный интеллект», создан на основании приказа Росстандарта от 25.07.2019 № 1732. — «Монокль»), который должен вырабатывать стандарты для искусственного интеллекта, но, к сожалению, они, во-первых, их в основном переписывают с европейских, во-вторых, там работа пока совершенно не закончена.

У нас нет никаких законов, регулирующих ИИ, которые требовали бы внедрения доверенного искусственного интеллекта, проверенного искусственного интеллекта, сертифицировали бы контент этого искусственного интеллекта. 

Методов сертификации нет, а если у вас гигантская база на многие петабайты текстов внутри, как понять, что она не выкинет какую-то непредсказуемую штуку? Вы ее поставите во все школы. Пусть даже в большей части школ эта нейронка  будет работать, изображая образовательный процесс, а, скажем, в тысяче или сотне школ она вдруг начнет требовать убивать русских или искажать нашу историю. Как проверить, что она этого гарантированно не сделает? 

— И что можно сделать, чтобы избежать таких рисков?

— Нам нужно очень жесткое регулирование искусственного интеллекта. И, скорее всего, сейчас нужно «охлаждение» цифровизации и внедрения ИИ, то есть постановка на паузу внедрения искусственного интеллекта в социальную сферу, в общение граждан с государством, в «Госуслуги», в юриспруденцию, в законотворчество, да и в журналистику тоже. 

В журналистике вообще нужно создать какой-то аналог «Честного знака», чтобы в начале любого журналистского текста было написано: «Не ChatGPT, не сгенерировано искусственным интеллектом». Или, если текст был сгенерирован, это должно быть помечено, как с пищей (содержит глютен, аллергены, орехи, прочее).

Вообще говоря, у нас уже есть Кодекс этики ИИ, он был написан три года назад. Это симулякр. Я лично принимал горячее участие в его создании, пытаясь воткнуть туда ограничивающие социальные нормы использования ИИ. Кодекс за три года подписали 850 организаций, госорганы, но никто из подписантов ничего не исполняет. 

Там есть норма маркировки искусственного интеллекта при общении с человеком, но никто не маркирует. И таких пустых норм там много. Кодекс используют просто как индульгенцию: мол, я подписал — все, я этичный, дальше я все ту же ерунду могу творить, тот же беспредел с выгодой для себя: воровать персональные данные, вторгаться в личное пространство, манипулировать, втюхивать — эффективно, с помощью ИИ.

Нам нужно довольно жесткое законодательство в этой области и, соответственно, нужен некий регулятор, который саму идею доверенности искусственного интеллекта продвинул бы, построил бы процедуры. И нужны санкции за их неисполнение цифровым бизнесом и чиновниками. 

Если кто-то выпустил и внедрил такой искусственный интеллект, который ворует данные, лжет, манипулирует или искажает, за это он должен ответить. 

— Сейчас же, получается, за возможные искажения никто не понесет ответственности?

— У нас этого ничего нет. То есть, по сути, наши разработчики искусственного интеллекта — это люди, которые ходят по чужой цифровой помойке, подбирают там все, что приглянулось, а потом это несут домой, тащат в рот или несут в школу нашим детям.

Их пока не привлечешь за это. Пока. За это сейчас нужно бороться.

— Нас обогнали в цифровом космосе, но мы не обязаны делать бредогенератор.

— Тем временем цифровизаторы пытаются построить себе дорогу в светлое цифровое будущее. Есть документ, который недавно разослало в разные органы, в том числе в Совет по правам человека, Министерство цифрового развития, под названием «Концепция регулирования искусственного интеллекта до 2030 года».

Это, на мой взгляд, абсолютно манипулятивный документ, который сводится к тому, что надо создать разработчикам ИИ комфортные условия, гибридное законодательство, которое, конечно, учитывало бы некоторые риски искусственного интеллекта, но, самое главное, не мешало бы ему развиваться в нашей стране. 

И Россия, как они там пишут, применяет гибридный подход. Не запретительный как в Европе, не разрешающий что угодно, как в США, а гибридный. А кто, собственно, решил, что подход России должен быть гибридным? Кто эти люди? Такие вопросы должны решаться парламентом, главой страны, а не Министерством цифрового развития.

Авторы концепции все время пишут о том, что надо снять ответственность с разработчика, нельзя душить разработку, иначе мы отстанем. Я написал 22 страницы замечаний и отправил их и Валерию Фадееву в СПЧ, и паре сенаторов.

Нам надо с этим угаром внедрения ИИ бороться и написать нормальный закон, который в основном будет запретительным, который будет говорить, чего категорически нельзя делать в социальной сфере.

Например, нельзя принимать с помощью искусственного интеллекта автономные решения, юридически значимые, которые влияют на судьбу человека. Нельзя заменять учителя, нельзя общаться без объявления, обманывать, антропоморфизировать искусственный интеллект, притворяться, что он человек, то есть заниматься имперсонацией.

Недавно, собственно, Валерий Фадеев давал интервью, в котором говорил, что они позадавали ChatGPT чувствительные вопросы. Там ужас. Но в отечественных генеративных системах ИИ это тоже пробулькивается наверх, проклевывается. Хотя последние год-два наши разработчики ИИ рассказывают басни, что у них все сделано с нуля, все оригинальное.

Эта ситуация на самом деле продолжает быть такой по очень простой причине. У нас нет науки о нейронных сетях. Она вся вторичная. Как когда-то, в 1950-х, мы обогнали американцев в космосе, нас обогнали в этом цифровом космосе. И все современные нейронные сети делаются в США.

Китай еще пытается перехватить инициативу. Я имею ввиду DeepSeek. Но надо понимать, что это китайский способ инноваций: все украсть, научиться использовать и выдать за свое. А потом сделать немного свое, почти свое, потом совсем свое.

Для чего нам нужен ИИ и для чего он не нужен вовсе

— Мы отстали, проиграли эту нейронную гонку, судя по всему. Какие у нас есть шансы если не перегнать, то приблизиться, если не приблизиться, то сдвинуться с места?

— Это вопрос, некорректно поставленный, и я сейчас объясню почему. Потому что совершенно непонятно, а куда отстали. Где цель, куда мы все бежим? 

Вот в космосе было понятно, там одно направление — вверх. Вон над головой наш спутник летает, а их — нет. А вот здесь мы куда бежим? То есть у нас какая нужда делать бредогенератор еще более гладким или быстрым, чем у американцев?

Вот смотрите, я приведу пример. Американец пишет: я решил посмотреть, что делает моя дочь с домашними заданиями. Родитель бездумно купил ей доступ, оплачивает 20 долларов в месяц. Теперь переживает. 

Дочь берет все задания, которые прислал учитель, сует в ChatGPT, берет ответы и, опять же не глядя, не читая, перепихивает в письмо учителю или там куда-то в чат, в средства общения с учителем. 

Я, говорит американец, просто посмотрел, какие там вопросы: сколько минут в часе? Сколько минут в сутках? При какой температуре кипит вода? Там элементарные вопросы, ответы на которые девочка уже никогда не узнает. 

Она нашла, эта девочка одиннадцати лет, идеальный, самый энергоэффективный способ делать домашние задания, а то, что она останется с пустой головой, ее не интересует, потому что она и не видит смысла учиться, ей надо просто отделаться от учителя и от родителей.

Она не понимает, зачем ей учиться, потому что не знает ни про историю, ни про географию, ни даже про то, что рядом находится. Просто сразу лезет в Google, в карты, в Википедию**, и все. И забывает тут же.

Вот нам что, надо вот туда спешить? В этот прекрасный новый мир идиотов? Это нам зачем?

— Но если с точки зрения развития нейронных сетей, самой технологии?

— Еще раз: весь ажиотаж сейчас — вокруг генераторов. Больших лингвистических моделей. Бредогенераторов. 

Предыдущая вспышка хайпа была по поводу распознавателей, когда научились распознавать объекты, лица, речь распознавать и так далее. Сейчас — по поводу генераторов. Это, конечно, пузырь.

Кто сказал, что нам нужно гнаться за генерацией вот этого всего? Чтобы что? Чтобы нагенерировать вавилонскую башню этой чуши? А зачем? Чтобы оказаться внутри полностью сфальсифицированной Вселенной?

Сами по себе нейронные сети — это полезная вещь. Они сейчас применяются во многих отраслях. 

— А в каких именно? И какие из них приоритетны для нашей страны?

— Например, в оборонной области — где у нас, кстати, все довольно хорошо. У нас сейчас на линии боевого соприкосновения летает много наших дронов с искусственным интеллектом. Я наблюдаю относительно близко людей, которые это все делают. Там все хорошо. Мы не отстаем и даже, в общем, часто опережаем. 

На войне сейчас самое важное — это захват цели беспилотником, управление беспилотником, ПВО, контрбатарейная борьба — это все распознавание, управление. Это не генерация бессмысленных текстов и картинок. 

Что касается промышленности, там тоже ИИ — это в основном не болталки, а предиктивная аналитика, распознавание всяких дефектов, проектирование. У нас в области экономики и обороны более или менее понятно, куда двигаться. Там нельзя как минимум отстать, иначе нас победят, в частности на войне. 

Но вот принять идею, что искусственный интеллект будет за государственных мужей выдумывать стратегии, принимать решения и так далее, — это все равно что говорить, что мы хотим стать той девочкой, которая просто будет нажимать кнопку для передачи вопросов-ответов мимо мозга. То есть идея, что американцы отупеют окончательно, как та девочка, и поэтому нас каким-то образом обгонят — очень странная.

Нам-то зачем тупеть? С какой стати нужно делегировать мышление вот этой… технологии? Она что, будет лучше нас мыслить? Ну нет, конечно.

ChatGPT собирает не знания, а некую информацию, которая знанием не является, из текстов. Но в текстах, даже если вы возьмете все тексты мира, только процентов десять информации, а тем более знаний, которыми мы пользуемся для жизни, для принятия решений и так далее.

У нас на линии боевого соприкосновения летает довольно много наших дронов с искусственным интеллектом. На войне сейчас самое важное — это захват цели беспилотником, управление беспилотником, ПВО, контрбатарейная борьба — это все распознавание, управление. Это не генерация бессмысленных текстов и картинок

Например, в текстах нет или мало сведений о том, что у лошади или кошки — четыре ноги. Ну вы почти этого нигде в текстах не найдете, потому что человеку это очевидно. То есть что-то будет, но очень редко, с низкой частотой. А большие лингвистические модели построены на частотности. 

В текстах практически нет прагматики реального мира. Например, прагматического знания, что на правой руке большой палец слева, а на левой руке большой палец справа. И что пальцев пять.

Вы же помните, что очень долго генераторы картинок рисовали руки какие угодно, с многосуставчатыми пальцами, торчащими в разные стороны. Почему? А это в текстах не было описано, а на существующих картинках плохо видно и слишком разнообразно, тоже не собирается в единую модель, хотя для человека это самоочевидно. Потом это как-то полечили в графических моделях — думаю, практически вручную.

И вот этой прагматики реальной жизни, которую мы используем для принятия решений, ее очень много, она невербальна, она не в текстах и не в картинках.

Есть иллюзия, что имеется какое-то общее социальное, культурное, государственное и технологическое будущее у нас, у американцев, и у Китая, например, в которое нам всем обязательно нужно попасть, а они уже ближе к нему. И надо изо всех сил за ними бежать, затрачивая огромную долю ВВП, энергии, труда, компьютерного железа на вот эти все блестящие цифровые обманки.

Нет, мы с ними не идем в одну сторону. Китай идет к цифровому концлагерю, США тоже идут к цифровому концлагерю. Просто цифровой концлагерь в Китае организовывается средствами государства, а цифровой концлагерь в США организовывается средствами цифровых суперкорпораций. Эти цивилизации решили, что им это надо. Ну ладно, пусть их.

Но нам же в концлагерь не надо. В этом же проблема. И свобода.

У нас должны быть свои приоритеты. И не факт, что генерирующие нейронные сети, болталки, бредогенераторы к нашему цивилизационному будущему имеют отношение. Может, нам надо продолжать делать гиперзвук, которого пока нет ни у тех, ни у других? Атомные космические корабли? Боевой ИИ?

* Международное общественное движение ЛГБТ признано в России экстремистским и запрещено.

** Иностранный владелец этого ресурса нарушает закон РФ.