Искусственный интеллект требует строгого контроля со стороны человека, считает юрист Валерия Минакова
В современном мире активное внедрение искусственного интеллекта (ИИ) в рабочие процессы несёт определённые угрозы как для бизнеса, так и для обычных пользователей.
По мнению главного юриста компании «Моя удалёнка» Валерии Минаковой, алгоритмы ИИ не всегда способны корректно обрабатывать информацию, что может приводить к серьёзным последствиям, передаёт издание «Газета.Ru».
Одной из главных проблем, считает она, является неспособность ИИ правильно интерпретировать текст.
«Например, ИИ может неправильно читать текст, – пояснила Минакова. – Он иногда путается в словах "не" и "нет"».
Подобные ошибки, предупредила эксперт, могут иметь критическое значение в медицинской сфере, где неверная интерпретация данных способна нанести серьёзный вред здоровью пациентов.
Проблематика некорректной работы ИИ затрагивает также и сферу обслуживания клиентов. Ярким примером служит инцидент с чат-ботом авиакомпании Air Canada, который предоставил пассажиру ошибочную информацию о возврате билета. В результате компании пришлось выплатить компенсацию в размере 812 канадских долларов.
Особую озабоченность у Минаковой, вызывает практика автоматической блокировки аккаунтов и отказа в предоставлении услуг без внятного объяснения причин. Так, летом 2025 года множество пользователей столкнулись с необоснованными блокировками, предположительно вызванными действиями ИИ-систем.
Ключевым вопросом остаётся определение ответственности за ошибки искусственного интеллекта. По словам эксперта, в настоящее время многие страны пересматривают подходы к регулированию ИИ-технологий. В странах Евросоюза уже действует AI Act, обязывающий компании обеспечивать прозрачность и управляемость алгоритмов, особенно в критически важных сферах.
РФ также внедряет механизмы контроля над искусственным интеллектом. Недавно принятый закон о платформенной занятости предусматривает возможность проверки и обжалования автоматических решений. Это особенно важно для самозанятых граждан и фрилансеров, чья деятельность напрямую зависит от работы цифровых платформ.
«ИИ не должен функционировать автономно. Компании обязаны заранее прописывать механизмы ответственности за возможные ошибки, утечки данных и несправедливые решения системы. ИИ – это не "умная кнопка", а система, которая может ошибаться, поэтому за ней всегда должен стоять человек», – резюмировала эксперт.
Как ранее писал «Монокль», глава американской компании по внедрению искусственного интеллекта I3Mation, автор книги «Принципы управления ИИ и управления рисками» Джеймс Сэйлз выразил обеспокоенность отсутствием должного контроля над развитием искусственного интеллекта.