Как будет выглядеть суверенный ИИ

На горизонте ближайших трех‒пяти лет в России будет формироваться суверенный и закрытый рынок ИИ. Он будет характеризоваться доминированием нескольких экосистем, преимущественно от крупных корпораций, высокой ролью государства как регулятора и заказчика, а также повышенным вниманием к надежности и этике

Читать на monocle.ru

Минцифры опубликовало законопроект о государственном регулировании искусственного интеллекта. Ожидается, что закон вступит в силу 1 сентября 2027 года.

Проект предлагает комплексное регулирование искусственного интеллекта, нацеленное на ускорение его развития при одновременном обеспечении безопасности и технологического суверенитета. Предлагается ввести разграничение понятий суверенных и национальных моделей ИИ. Для критически важных сфер вводится реестр «доверенных моделей ИИ». Устанавливаются новые обязанности для разработчиков и пользователей, и отдельно проработаны меры государственной поддержки.

Как ограничат ИИ и к чему это приведет

Вот семь ключевых тезисов нового законопроекта.

1. Введение «суверенных и национальных» моделей ИИ. Все стадии разработки, обучения и использования таких моделей должны осуществляться на территории РФ и силами российских лиц. От этого, весьма вероятно, выиграют крупные игроки и корпорации, обладающие ресурсами для разработки суверенных ИИ с нуля или быстрой адаптации под новые требования. Они получат приоритетный доступ к господдержке и рынкам (например, к предустановке их моделей на устройства). Возможности сделать разработку, имея в ядре ChatGPT или DeepSeek, не будет, придется придумывать то, что уже существует, но свое.

2. Вводится понятие «реестр доверенных моделей ИИ» для госструктур и критической инфраструктуры. Появляется обязательная сертификация ИИ-решений для ключевых отраслей. В результате вырастут затраты и сроки внедрения ИИ-технологий.

3. Компании будут обязаны уведомлять клиентов, если те взаимодействуют с алгоритмом ИИ вместо человека, в некоторых сферах — давать возможность обслуживаться без ИИ, если клиент против. Появится необходимость вводить обязательные уведомления (например, пометки «чат-бот»), получать согласие на применение ИИ, а при отказе — иметь резервный «ручной» процесс. Механизм похож на принципы обработки персональных данных.

4. Разработчиков ИИ-систем обяжут обеспечить безопасную архитектуру, исключить дискриминацию и манипуляции данными. Разработчик должен будет проводить внутренние проверки на этичность и безопасность: анализировать потенциальные риски, явно указывать, для чего модель не предназначена (запрещенные области применения). Это особенно важно для промышленного ИИ и энергетики, где ошибки могут стоить дорого.

5. Вводится правовая норма против «скрытого ИИ». Все материалы (текст, видео, изображения), созданные ИИ, должны содержать явное уведомление об этом.

6. Регулируются интеллектуальные права и легальность обучающих данных. Ключевое требование — разработчик/владелец обязан при обучении нейросети использовать или собственные данные, или чужие — только на законных основаниях (лицензия, публичная доступность). Вопрос обучения — самый сложный и дорогой и станет еще сложнее и дороже, так как, по сути, нельзя будет обучать систему на запросах пользователей без их согласия. Использовать зарубежные данные будет запрещено, а отечественных может не хватать. Фактически нейронки станут «глупее».

7. Распределение ответственности за вред от ИИ. Разработчик, оператор или владелец несут ответственность за незаконный или вредный результат работы ИИ, если было известно о возможности такого исхода и не приняты меры. Пример: чат-бот дал совет по налогам. Человек им воспользовался и понес убытки. Они лягут на разработчика.

Разработчик, оператор или владелец нейросети будут нести ответственность за незаконный или вредный результат работы ИИ. Пример: чат-бот дал совет по налогам. Человек им воспользовался и понес убытки. Они лягут на разработчика

Путь к олигополии?

Вот только некоторые риски для разработчиков ИИ, которые несет новый законопроект.

1. Избыточное регулирование. Выполнение всех новых требований (документация, сертификация, контроль, юридическое сопровождение) значительно увеличивает постоянные расходы на разработку и внедрение ИИ (по нашим расчетам, до 20% от общего пула расходов). Для многих компаний, особенно небольших, это может сделать проекты экономически невыгодными. Появляется существенный риск сокращения числа новых стартапов и инноваций.

По опыту других зарегулированных отраслей (например, финансы или медицина) видно, что мелкие компании часто уходят, не выдерживая издержки комплаенс-процедур.

2. Монополизация и уменьшение конкуренции. Критики законопроекта неоднократно отмечали, что строгие регуляторные рамки выгодны скорее крупным игрокам, которые на этом фоне смогут «выбить» с рынка перспективные стартапы. Высок риск, что рынок ИИ в РФ станет олигополией нескольких крупных корпораций.

3. Ограничение доступа к передовым зарубежным технологиям. Ставка на полностью локальные модели и запрет на трансграничное применение несут риск технологического отставания. Мировое сообщество ИИ развивается открыто и быстро. Полная изоляция от этой кооперации может лишить российские компании лучших практик и open-source-решений. Создавать большую модель с нуля без иностранных наработок — дорого и часто нецелесообразно.

4. Новое регулирование неизбежно приведет к появлению судебных разбирательств, будь то споры о соблюдении требований или иски о возмещении вреда. Пока практика не сформирована, суды могут по-разному толковать нормы. Есть риск, что первые крупные инциденты повлекут очень жесткое решение, создавая прецедент избыточной ответственности.

Отдельный, российский ИИ

При всех рисках законопроект задает новую траекторию развития ИИ в России — ориентированную на внутренние ресурсы, безопасность и предсказуемость.

Ожидаются целевые гранты, субсидии, налоговые льготы для разработчиков «суверенного» ИИ. Положения о суверенных моделях и допуск только сертифицированных ИИ на критические объекты означают, что отечественные компании получат исключительный доступ к значимой части рынка. Там, где раньше присутствовали иностранные AI-продукты, теперь дорога открыта только для российских аналогов. Особенно в секторе промышленного ПО, энергетики, городских систем — иностранцы будут вытеснены регуляторно.

Жесткое регулирование может подстегнуть внедрение ИИ-технологий, особенно в государственных органах, промышленности и энергетике: многие опасения будут сняты

С ужесточением требований к исходным данным модели начнет развиваться рынок легальных датасетов и контента. Компании предпочтут купить лицензированный набор данных. Можно также ожидать спроса на инструменты анонимизации и синтезирования данных для обучения.

Наконец, как ни парадоксально, жесткое регулирование может подстегнуть адаптацию ИИ-технологий, особенно в государственных органах, промышленности и энергетике. Появление четких правил снимает часть опасений руководителей госструктур, и при наличии господдержки они активнее начнут внедрять ИИ-решения, чтобы повысить эффективность. Кроме того, методическая помощь от Минцифры и других органов облегчит старт новых проектов. Для разработчиков это означает расширение рынков сбыта. И если раньше завод или министерство опасались «необузданного» ИИ, то теперь, при соблюдении всех норм, они готовы его покупать и внедрять.

Можно прогнозировать, что на горизонте ближайших трех‒пяти лет в России будет формироваться суверенный и закрытый рынок ИИ. Очень вероятно, что темпы развития отечественных ИИ-технологий немного снизятся. При этом приоритет будет отдан решениям, критически важным для национальной экономики и безопасности.