ИИ — это серьезный инструмент для улучшения возможностей человека во многих сферах деятельности. Но сможем ли мы им пользоваться, не создавая новых серьезных проблем?
Появление ChatGPT, разработанного компанией OpenAI, моментально превратило искусственный интеллект (ИИ), относившийся к категории тем, доступных лишь узкому кругу специалистов, в практический инструмент, получающий все более широкое распространение. Инструмент, используемый в самых разных приложениях — от написания музыки и стихов до разработки новых молекулярных соединений и расшифровки древних рукописей. В последние месяцы тема ИИ стала настоящим драйвером американского фондового рынка. Но не утихают дискуссии относительно основополагающей проблемы, связанной с использованием ИИ, — непрозрачности механизма его действия.
Сейчас многие компании начали широко применять искусственный интеллект для повышения эффективности своего бизнеса. Причем ИИ используется для решения самых разных задач. Перечислим основные их них:
Эффективность решения этих задач, помимо собственно совершенства используемых моделей ИИ, в значительной степени обусловлена качеством используемых больших данных. Как исторических, так и данных, получаемых в режиме реального времени. Поскольку использование ИИ потенциально сулит значительные конкурентные преимущества, многие компании, как правило, не стремятся афишировать свои достижения как в области построения моделей ИИ, так и в области сбора и обработки данных.
Попробуем разобраться с рисками использования ИИ. Перечислим те, которые нам представляются наиболее значимыми:
Сегодня работа моделей ИИ непрозрачна, то есть это «черные ящики», которые выдают вам результат. При этом отсутствует понимание, как ИИ приходит к этим результатам, проверить их можно только эмпирическим путем. Мы оцениваем этот риск как потенциально один из наиболее опасных, поскольку эффективность решений, предлагаемых ИИ, может быть оценена только постфактум. И его возможные ошибки в области прогнозирования спроса, стратегии продаж, оптимизации технологических процессов и т. п. могут привести к большим финансовым потерям.
Следующим риском по уровню потенциальных потерь является риск утечки данных. Работа моделей ИИ основана на анализе больших данных из разных источников, включающих информацию о клиентах, конкурентах, продуктах, объемах продаж, патентах и т. д. Утечка этих данных может стать причиной огромных штрафов, потери репутации компании. Причины утечки могут быть самыми разными — например, противоправные действия внешних лиц, сбои в работе оборудования, недобросовестность сотрудников самой компании. Как показывает опыт последних лет, обеспечение конфиденциальности и безопасности данных становится все более сложной задачей.
Еще одним существенным риском по уровню потенциальных потерь, по нашему мнению, является риск возможного нарушения прав интеллектуальной собственности. Это может происходить как на этапе обучения ИИ, так и на этапе последующего его использования. Например, несколько американских газет, включая New York Daily News, Chicago Tribune, Denver Post и другие, подали в суд на производителя ChatGPT OpenAI и Microsoft, утверждая, что технологические компании «похищают миллионы» защищенных авторским правом новостных статей без разрешения или оплаты для обучения своих чат-ботов с искусственным интеллектом. Хотя есть примеры достижения соглашений между технологическими компаниями и владельцами интеллектуальной собственности.
Довольно важным представляется риск значительного сокращения количества рабочих мест после оптимизации бизнес- и технологических процессов с помощью ИИ. Социальные и экономические последствия такого сокращения могут привести к социальному напряжению и последующему вмешательству регулирующих органов. Что в конечном счете может привести к потерям, которые окажутся больше достигнутой экономии затрат с помощью ИИ.
Значительным также представляется риск использования некачественных данных. Это касается как данных, используемых для обучения ИИ, так и данных, используемых для принятия решений на основе его рекомендаций. Сбор и подготовка необходимых данных являются одним из ключевых этапов при использовании ИИ. Ошибки на этом этапе могут стать причиной неправильной стратегии продаж, сбоев в работе оборудования, дефицита товаров на полках магазинов, некорректного ценообразованию и т. п.
Наконец, стоит упомянуть риск потерь, вызываемых дипфейками и мошенничеством с использованием ИИ. Кроме того, эти случаи, как правило, вызывают большой общественный резонанс. Технологии искусственного интеллекта могут создавать убедительные и реалистичные копии как текстовой, так и видеоинформации, что может приводить к большим потерям для жертв мошенников, создавать проблемы для компаний и их брендов, а также для правительственных организаций. Поэтому крайне актуальна разработка эффективных алгоритмов идентификации сообщений, созданных ИИ. И здесь появились первые обнадеживающие результаты. В октябре 2023 года на 37-й Конференции по нейронным системам обработки информации (Conference on Neural Information Processing Systems, NeurIPS) группа российских математиков представила алгоритм, позволяющий уверенно разделять тексты, написанные человеком и ИИ, при условии, что длина текста более 200 слов. Для этого используется топологический анализ текста. Оказалось, что внутренняя топологическая размерность сгенерированного текста на единицу меньше авторского.
Полагаем, что со временем вполне может стать актуальным риск зависимости от искусственного интеллекта. Если люди станут полностью полагаться на предлагаемые им решения, без надлежащего контроля и критического анализа, то в какой-то момент это может привести к непоправимым последствиям. ИИ может получить неверные данные или просто в алгоритмах модели окажутся невыявленные ошибки, что может стать причиной значительных потерь, если за работой ИИ не будет надлежащего контроля.
Приведенное выше описание рисков, возникающих при использовании ИИ, позволяет нам провести некоторые аналогии с операционными рисками. Мы считаем, что методологии управления рисками ИИ в значительной степени будут использовать подходы, разработанные для управления операционными рисками. Действительно, Базельский комитет по банковскому надзору (BCBS) дает следующее определение операционного риска: «Операционный риск определяется как риск потерь в результате неадекватных или неудачных внутренних процессов, людей и систем или внешних событий. Это определение включает правовой риск (включая, помимо прочего, штрафы, пени или штрафные санкции в результате надзорных действий, а также частные расчеты), но исключает стратегический и репутационный риск»***. Таким образом, вышеупомянутые риски использования ИИ в значительной степени подпадают под определение операционного риска.
Конечно, использование искусственного интеллекта может обеспечить значительное повышение эффективности и прибыльности бизнеса компаний при одновременном повышении стандартов качества, безопасности и соблюдения требований ESG. Однако в то же время, как было показано выше, внедрение ИИ несет значительные риски. Тем не менее, по нашему мнению, внедрение проверенных временем подходов к управлению этими рисками позволит компаниям в максимальной степени использовать все преимущества ИИ.
Следует отметить, что нормативно-правовая база в сфере использования ИИ в настоящее время находится на этапе формирования. Наиболее продвинутые подходы к решению этой проблемы можно найти в американских источниках:
— указ от 30 октября 2023 года «Исполнительный указ о безопасной, защищенной и заслуживающей доверия разработке и использовании искусственного интеллекта»;
— стандарт NIST-AI-600-1 от 26 июля 2024 года «Структура управления рисками искусственного интеллекта», разработанный Национальным институтом стандартов и технологий (NIST) в соответствии с указом от 30 октября 2023 года.
Остается неясным, насколько долгим будет увлечение ИИ. Окажется ли это скоротечной модой или повсеместное использование искусственного интеллекта поможет сформировать новый экономический уклад? Для дальнейшего масштабирования использования ИИ необходимо большое количество новых центров обработки данных, что, в свою очередь, потребует ускоренного строительства новых электрогенерирующих мощностей. И судя по заявленным инвестициям в строительство новых электростанций и центров обработки данных, новая эра, эра искусственного интеллекта, только начинается.
На наш взгляд, сегодняшнее понимание возможностей ИИ подобно айсбергу, огромная часть которого пока скрыта. Вполне возможно, что ИИ — это не просто новый инструмент для улучшения наших возможностей, а первый этап революционных изменений практически во всех областях человеческой деятельности. Изменений, которые станут драйвером формирования принципиально нового типа эволюции человечества, отличного от дарвиновской эволюции.