Искусственный интеллект: вооружён и очень опасен

Оля Осокина
основатель health tech компании AIBY
18 августа 2021, 15:59

Роботы и этика: как регулировать растущее присутствие ИИ

Коллаж: Тамара Ларина

Мировой рынок искусственного интеллекта растет год от года — новейшие разработки с применением ИИ сегодня используются и в бизнесе, и на потребительском рынке, в государственном и военном секторе.

Согласно прогнозу международной аналитической компании IDC, совокупный объём этого бизнес-сегмента, включающий в себя программное обеспечение, сопутствующее оборудование и сервисы, вырастет к концу года по сравнению с прошлым на 16,4% и составит 327,5 млрд долларов. По мнению аналитиков, планомерный рост рынка продолжится в следующие годы и к 2024 году преодолеет отметку в 500 млрд долларов. Таким образом среднегодовой темп роста на протяжении пятилетнего периода составит 17,5%.

По мере развития IT-рынка, связанного с ИИ, в обществе актуализируются вопросы его регулирования, а значит — и этического кодекса взаимоотношений «роботов» и людей.

Проблемы, связанные с развитием возможностей искусственного интеллекта

Среди основных проблем, вызываемых всеобщим проникновением искусственного интеллекта в нашу жизнь, можно обозначить, во-первых, социально-экономическое неравенство, возникающее из-за внедрения искусственного интеллекта в повседневный быт людей. Многих экспертов беспокоят вопросы трудоустройства и профессионализации труда в тех сферах, где ИИ может конкурировать с человеком.

Есть проблемы и с нарушениями конфиденциальности данных, загруженных в базу связанного с ИИ программного обеспечения. Особое беспокойство вызывает тема автоматизации оружия и средств физического уничтожения, в которые внедрены системы искусственного интеллекта.

Все эти проблемы вызывают опасения, так как в последние годы возникали кейсы, наглядно демонстрирующие: полностью довериться ИИ мы сегодня не можем. К примеру, в 2019 году независимые исследователи обнаружили на незащищенном сервере почти два миллиарда пользовательских записей «Умного дома» китайской компании Orvibo. А в 2020 году в Ливии военный беспилотник самостоятельно, без непосредственного участия оператора, выследил и уничтожил человека. Не так давно разразился скандал и в России, связанный с использованием ИИ в бизнесе: пермская компания одномоментно уволила более полусотни сотрудников на основании решения нейро алгоритма.

Вместе с тем есть ряд потенциальных угроз, которые волнуют людей в связи с активным развитием искусственного интеллекта вообще. Одно из основных опасений связано с возможным самосовершенствованием искусственного интеллекта. Вольная фантазия о том, на что может быть способен ИИ, вышедший из-под контроля, представлена в популярном голливудском блокбастере «Терминатор»: в какой-то момент ИИ может «задуматься» об уничтожении людей. Во избежание этого, пускай и фантастического сюжета, представляется целесообразным создание некоего общего кода, который бы ограничивал пределы возможностей самосовершенствования ИИ.

Не менее серьёзно опасение того, что тотальная ИИ-автоматизация приведёт к замене человека в ключевых сферах жизни. Согласно прогнозам учёных школы Оксфорд-Мартин, искусственный интеллект прежде всего заменит неквалифицированных работников, а также тех офисных сотрудников, чья работа не требует напряженных интеллектуальных усилий (операторов баз данных, секретарей). Некоторые эксперты считают, что в скором будущем на рынке труда потеснятся и представители более творческих профессий. Поскольку уже сейчас нейронные сети придумывают кинотрейлеры, пишут несложные журналистские статьи, сочиняют сценарии и рисуют картины.

Проникновение ИИ в медицину и ритейл с одной стороны, облегчает работу специалистов, но нельзя забывать об особенностях машинного фактора, который может привести к непоправимой ошибке, а то и навредить человеку. 

Наибольшие опасения при внедрении технологий искусственного интеллекта связаны с вопросами кибербезопасности, нарушениями конфиденциальности баз данных и тех рисков, которые связаны с нанесением вреда человеческому организму. Все эти проблемы наиболее актуальны для сферы здравоохранения, связанной с функционалом пользовательских соглашений и информированного согласия людей на услуги. К примеру, несколько лет назад разразился скандал вокруг системы искусственного интеллекта IBM Watson for Oncology, помогавшей уточнять врачебные диагнозы. 

Мировое законодательство, связанное с нормативным закреплением статуса ИИ

Технологии искусственного интеллекта с неизбежными ошибками при его внедрении в жизнь человека актуализирует разные этические вопросы, решить которые можно через официальное регулирование ИИ.

Общих законодательных актов с нормами непосредственного действия, посвященных исключительно искусственному интеллекту, на данный момент нет ни в одной стране мира. Довольно близко к их созданию подошли разве что Южная Корея и Европейский Союз. В Южной Корее в 2008 году был принят акт, который посвящён робототехнике с элементами ИИ. В 2017 году европейский парламент принял резолюцию, намечающую общие подходы к регулированию ответственности за причиняемый ИИ вред. 

Согласно оценкам различных экспертов, прозвучавшим на тематической сессии «Русского Дома в Давосе», сегодня в том или ином виде национальные стратегии развития систем искусственного интеллекта проработаны более, чем в 30 странах мира.

Закрепить нормативный статус системы ИИ пробуют и в России. В 2020 году был принят Федеральный закон, регламентирующий экспериментальные условия для разработки и внедрения технологий искусственного интеллекта с возможностью дальнейшего их использования.
Уже сегодня под эгидой ЮНЕСКО идёт работа над рекомендациями по этическим аспектам ИИ. Это первый глобальный законодательный документ, в рамках которого будет зафиксированы многочисленные нюансы, связанные с этикой использования искусственного интеллекта. Принятие проекта планируется к утверждению на генеральной конференции ЮНЕСКО в конце 2021 года.

Сложности в проработке и применении этического кодекса ИИ

Очевидно, что рано или поздно этические нормы в отношении искусственного интеллекта будут проработаны и законодательно приняты во всех цивилизованных государствах. Пока непонятно: станет ли этот своего рода этический кодекс единым для всех стран? Возникают вопросы и к конкретному содержанию документа, неясно какие органы займутся контролем за соблюдением его положений.

Регламентация положений этического кодекса может быть реализована по-разному. Возможно, будет создана система децентрализованной базы данных, которую нельзя изменить. Не исключено введение единых правил для ИИ на межгосударственном уровне. Или же крупные tech-гиганты, вовлечённые в разработку технологий ИИ, объединятся в наднациональный альянс.

Нельзя забывать и о тех проблемах, которые этический кодекс ИИ разрешить не сможет. Это проблема чувственного взаимодействия людей с технологиями нейросетей, которые уже сейчас опосредованно распознают живые эмоции. Возможно, в будущем ИИ научится «проявлять» чувства и сам, что неизбежно приведёт к разного рода манипуляциям в отношении человека.

Довольно сложно будет зафиксировать в кодексе этические аспекты, связанные с поиском запрещённого законом экстремистского контента. Несмотря на явную пользу от работы ИИ в деле обнаружения вредоносной информации, такие алгоритмы «конфликтуют» с нормами, защищающими приватность жизни и конфиденциальность личной информации.

В то же время не совсем ясно, как этический кодекс мог бы учесть проблемы в отношении стартапов, которые занимаются развитием ИИ. Здесь сложно разрешимые вопросы касаются тех инновационных разработок, в основе которых лежат процессы обмена данными (например, на корпоративном уровне).

В целом, рассматривая особенности и проблематику этического взаимодействия людей с технологиями искусственного интеллекта, стоит отметить, что это хоть и противоречивая, но неизбежная тема. Чем раньше люди предусмотрят все риски, тем выше шанс на то, что технологический кризис, связанный с развитием ИИ, не случится.