ChatGPT: а что в сухом остатке?

Никанор Бабурин
28 апреля 2025, 06:00
№18

То, что мы называем сегодня искусственным интеллектом, пока не более чем новый формат поисковой системы в интернете

IMAGO/CHRISTIAN OHDE
Читайте Monocle.ru в

Восторги по поводу того, как условный GPT (здесь и далее по тексту под GPT понимается любая нейросеть: ChatGPT, YandexGPT, GigaChat, DeepSeek и пр.) за пару секунд дает ответы на вопросы, на поиск которых раньше требовались дни и недели, звучат повсеместно. На волне такого информационного цунами хочется узнать: а как можно это использовать с выгодой для решения приземленных прикладных задач конкретного бизнеса с учетом его специфики? Сколько и каких сотрудников может заменить доступный сегодня компаниям чат-бот на основе GPT и будет ли эффективной подобная ротация?

Примем как данность, что нейронные сети, лежащие в основе любой большой языковой модели, — это математический аппарат, «заточенный» на поиск похожих объектов: картинок, текстов, голосов. В GPT на входе подают определенное количество информации (образно говоря, весь интернет), и на ее основе учат быстро находить ответ на вопрос, который задает пользователь. Получается, что перед нами своеобразная надстройка над поиском а-ля «Яндекс», только вместо поисковой строки у пользователя промпт, а вместо результатов не список страниц, а систематизированные сведения. То есть по большому счету нам облегчили жизнь: не надо тратить время на изучение выданных поисковиком результатов — если правильно сформулировать промпт, нейросеть все сделает сама.

Посмотрим на конкретных примерах, где это может быть полезно и выгодно.

Юридический отдел

Польза пока не выявлена. GPT обучен не на материалах «Консультанта» и «Гаранта», а на статьях в интернете, в том числе написанных очень давно. За это время изменилась законодательная база, да и авторы статей не всегда публиковали достоверную информацию. Даже на четко сформулированный вопрос (скажем, «обязан ли банк предоставлять расчетные документы клиенту?») GPT отвечает, не пытаясь уточнить нюансы, значимые де-юре и де-факто: например, касается поставленный вопрос физических или юридических лиц. При этом нейросеть может ссылаться на нормативные документы, которые на момент запроса уже утратили силу (например, в части банковского законодательства стабильно идут ссылки на недействующее положение Банка России от 24.04.2008 № 318-П о кассовых операциях с наличными). И что же из этого следует? А например, то, что, доверясь чат-боту, можно, как автор книг по стратегическому менеджменту Марк Поллард, застрять в аэропорту, потому что ChatGPT убедительно разъяснил путешественнику, что гражданам Австралии для посещения Чили не требуется виза. А таможенник говорит: «Требуется!».

Хуже того, нейросеть способна выдумывать. В 2023 году в New York Times была опубликована статья о том, как пассажир авиакомпании Avianca Роберто Мата получил при перелете травму тележкой и обратился в Федеральный суд Манхэттена с иском о возмещении вреда, а нанятый им адвокат Стивен Шварц предоставил суду ссылки на несуществующие прецеденты, сообщенные ему GPT. В итоге иск о взыскании вреда вылился в судебное заседание, посвященное санкциям в отношении юриста с 30-летним стажем за «юридическое представление, изобилующее поддельными судебными решениями, поддельными цитатами и поддельными внутренними ссылками».

Разработчики такие проколы GPT называют «галлюцинациями» математических моделей, а люди — «подставой». Но откуда берутся подобные «галлюцинации»? Одно из простых объяснений заключается в том, что цель GPT — дать ответ, похожий на человеческий: таков ее основной алгоритм. Для этого она анализирует последовательность слов в переданном контексте, заданном вопросе (промпте) и, составляя ответ, пытается предсказать следующее слово. Затем цикл повторяется снова и снова, пока не получится законченный текст. Ну а поскольку технология предсказания слов определяется вероятностями, в итоге получается анекдот про динозавра, шанс встретить которого на улице равен 50%: может, встречу, а может, нет.

Обратите внимание, что до сих пор не появилось юридических GPT-агентов, хотя, казалось бы, ничего сложного: достаточно загрузить в этот «черный ящик» условный «Консультант» и задавать вопросы нейросети, а не юристам. Но ничего подобного не происходит, потому что это дорого и не нужно: данные в уже имеющихся правовых системах формализованы и структурированы, а технология поиска по ключевым словам и событиям тщательно отработана.

ИT-отдел, написание кодов

Польза неочевидна. Представьте, что вы джуниор-разработчик, который знает только синтаксис Python, и поддались хайпу «генеративный ИИ заменит программистов». Вам надо написать код для решения конкретной задачи — собрать и систематизировать информацию о подписчиках вашего телеграм-канала. Промпт проще некуда, запрос сформулирован очень четко. Осилит ли его условный GPT? Во всяком случае, он попытается это сделать: выдаст 10 блоков кода с развернутыми комментариями. Вы его скопируете — и поймете, что программа не работает. Уточняющие вопросы по ошибкам еще больше усложнят процесс. По факту вы перепишете 40 строк кода, потратив четыре часа. Но снова безрезультатно. Если ваш чат-бот не DeepSeek, который не берет денег за количество символов в вопросе-ответе, а нейросеть с тарификацией, то вам придется еще и финансировать эту сомнительную помощь. В конце концов вам надоест биться с ИИ, и вы пойдете привычным путем — зададите в поиске «Яндекса» тот же самый вопрос: «Как на Python спарсить всех подписчиков телеграм-канала?» — получив в выдаче десяток статей, содержащих практически идентичные коды с разными комментариями. Оригинальный код, вероятно, будет по одной из ссылок, а в остальных местах — его рерайты. Чат-бот же из всего этого богатства делает выжимку: по сути, перемешивает коды и перефразирует комментарии. Осознав это, вы найдете официальную документацию на конкретную библиотеку и за 30 минут напишете работающий код из трех строк.

Бытует мнение, что благодаря ChatGPT программисты теперь пишут код не две недели, а два часа. Но, как говорил один из булгаковских героев, «не судите по костюму»: от ИИ вы получите код, но очень низкого качества, с большим количеством логических и алгоритмических ошибок. В результате трудозатраты на его отладку вырастут в разы, и доказать, что виновата в этом нейросеть, будет проблематично. То есть полностью исключить разработчика из процесса написания программы, увы, не получится. Во всем этом хайпе «Оно само пишет код!» мало кто понимает, что речь идет о создании кода с нуля в режиме шаблонизированного программирования, который к тому же придется тщательно выверять.

Более того, достаточно большой пласт задач — реализация дополнительного функционала, то есть дописывание существующего кода. И вот тут история выглядит уже совсем не радужно: чтобы GPT «допилил» программу, нужно загрузить в чат весь исходный код (помним про коммерческую тайну) в надежде, что нейросеть «поймет», какой кусок нового кода и в какое место проекта нужно вписать, при этом ничего не сломав.

Написание отчетов и квалификационных работ

Может быть… В преодолении так называемой проблемы чистого листа — когда у вас есть задача, а вы не знаете, с какой стороны к ней подступиться, — чат-бот действительно способен помочь, выдав на запрос скомпилированный ответ, от которого потом можно оттолкнуться. Или если вы составили отчет на 10 страниц, но от вас настойчиво требуют 25, GPT без труда нальет туда воды, добавив необходимого объема.

Писать дипломы, как все мы узнали в феврале 2023 года, когда состоялась мировая премьера «аферы» с защитой студента РГГУ Александра Ждана, ИИ умеет. Сейчас многие учащиеся техникумов и вузов пользуются нейросетью ради экономии времени и сил. Но при этом создается огромное количество бесполезных работ — примитивной компиляции найденного в интернете материала. Завтра такие дипломы снова попадут в интернет, на них обучатся новые чат-боты, и совсем скоро Всемирная паутина окажется набита бессмысленными псевдонаучными текстами, в которых просто переставлены абзацы и заменены синонимы. Как в детской песенке: «Море, а на море — суша, а на суше — пальма, а на пальме кот сидит и видит море, а на море — суша, а на суше — пальма…» — и так до бесконечности.

Замена операторов в банках и других компаниях

Это вряд ли получится. Автоматизация работы сотрудников кол-центров и техподдержки ведется давно и планомерно. Попытки ускорить решение задачи клиента в чате при помощи ботов делались еще лет десять назад. Вот только по результатам проведенного в 2021 году исследования Ассоциации потребителей, 78% респондентов, которые когда-либо имели дело с роботом-помощником, остались недовольны, так как не получили полного ответа на свой вопрос. Качество понимания человеческой речи чат-ботами до сих пор катастрофически низкое, не зря же родился мем: «Главное требование к чат-боту — он с точностью 99,99% должен распознавать все вариации фразы “позови человека”».

Для того чтобы нейросеть «понимала» пользователя, с ней необходимо проводить определенные алгоритмические манипуляции — на профессиональном языке это называется обучением. То есть ИИ нужно объяснить, что фразы «как открыть кредитку», «как оформить кредитную карту», «как открыть счет с подключенным овердрафтом» означают одно и то же. Результат зависит от двух факторов: объема данных (образно говоря, ChatGPT обучен на всем интернете, а у конкретной компании есть только история диалогов со своими клиентами в чате) и качества объяснения (разметки данных). Основная проблема кроется в богатстве русского языка: один и тот же смысл можно передать совершенно разными словами. К тому же процесс обучения на новых данных небыстрый, а клиенты хотят решения своей проблемы немедленно и не желают понимать, что бот не тупой, а просто недообученный.

Делопроизводство, корпоративная бюрократия в любом отделе, в том числе юридическом

Некоторым компаниям видится заманчивой перспектива создавать локальные версии больших языковых моделей (LLM), размещать их в закрытом ИТ-контуре фирмы и применять для работы с корпоративной базой знаний. Такая технология называется RAG (Retrieval Augmented Generation). Может, это и есть наше роботизированное будущее? Правда, создание LLM обойдется недешево, так как без хорошего технического специалиста, крепкого миддла, «свой» GPT не построить. Это миф, что достаточно взять все Word- и PDF-файлы компании, загрузить в LLM и получить собственную языковую модель. Технически это сделать, может, и удастся, но результаты работы такой модели вас вряд ли устроят. Сложность заключается в том, что общепризнанного критерия качества RAG-систем не существует — только субъективная оценка от «что за ерунду она городит» до «вот это да!». При этом управление результатом и качеством ответов LLM — задача сложная (технология нейронных сетей — это не алгоритмическое программирование, в нем нет четкой математической логики «если — то»).

Бытует мнение, что благодаря ChatGPT программисты теперь пишут код за два часа. Но, как говорил один из булгаковских героев, «не судите по ко стюму»: от ИИ вы получите код с большим количеством логических и алгоритмических ошибок

Единственный способ заставить языковую модель корректно работать с корпоративными файлами — переформировать векторную базу данных. А для этого придется тщательно отобрать документы, которые туда станут загружаться (например, провести ревизию и удалить все, что утратило актуальность), и преобразовать особо важные файлы (например, переделать таблицы в обычный текст в формате «абзац с вопросом — абзац с ответом»). Правда, рано или поздно заказчик может поинтересоваться: если информация будет структурирована в базе данных, зачем создавать LLM для формулирования ответа? Но экспериментировать с RAG как минимум интересно.

Пока не интеллект

В противовес высказанной в этой статье критической позиции относительно использования GPT для оптимизации кадрового состава можно привести контраргумент: число пользователей чат-ботов сейчас растет в геометрической прогрессии, а столько людей сразу ошибаться не могут. Значит, нейросеть все же способна принести пользу, а возможно, и прибыль! Спорить не будем. В любом случае это не повод утверждать, что GPT скоро заменит человека, и уж тем более нет оснований называть GPT искусственным интеллектом. Искусственный — да, интеллект — нет!

Кстати, за время подготовки этого материала технологии продолжали стремительно развиваться. ChatGPT, DeepSeek и YandexGPT презентовали новые опции: теперь в чат-боты можно загружать собственные файлы и задавать вопросы по ним. С одной стороны, это удобно — быстро выделить основные тезисы из новой многостраничной книги, сделать саммари совещания, собрать сводные данные по электронным таблицам. С другой — как проверить, что GPT не упустил важное именно для вас, не выдал «галлюцинацию» и обработал все данные, ничего не перепутав?

Словом, GPT хорош как инструмент поиска по всему интернету, но с более систематизированным и более человеческим ответом. Однако рассматривать его в качестве полноценной замены живого человека, качественно выполняющей его работу, способной критически мыслить и имеющей интеллект (умение находить новые, неожиданные, креативные, оптимальные способы решения задачи), пока явно рано.