Чего бояться нужно?
Американский «Центр безопасности ИИ» опубликовал официальное заявление. В нем подробно описывается ряд негативных эффектов использования ИИ, который в конечном итоге может стать причиной исчезновения человечества. «Более продвинутый ИИ может представлять катастрофические и экзистенциальные риски», - указано в тексте, опубликованном на сайте организации. Всего обозначено восемь угроз.
Первая связана с военным применением технологий искусственного интеллекта: «В отличие от других видов оружия, системы ИИ, способные причинить вред, могут быть с легкостью распространены цифровым образом».
Вторая – дезинформация: «…все это может подорвать коллективную систему принятия решений, радикализировать отдельных лиц…».
Третий риск – искажение работы рекомендательных алгоритмов. Эти системы, например, предлагают нам дополнительные товары на онлайн-маркетплейсах. Опасение состоит в том, что более продвинутые модели сконцентрируются на упрощении процесса прогнозирования желаний покупателя, что может стать причиной появления у людей вредных привычек и так далее.
Четвертая угроза связана с резким ростом зависимости людей от продвинутых систем вплоть до делегирования им самых обычных задач.
Пятая заключается в еще большей концентрации богатств и влияния в руках ограниченного количества людей, которые могут использовать это для монополизации власти в обществе.
Шестая угроза – эмерджетность целей и способностей. Иначе говоря, модели могут ставить новые цели и вырабатывать навыки, не предусмотренные во время их обучения.
Седьмая связана с обманом со стороны ИИ. В заявлении приводится пример, когда компания Volkswagen запрограммировала двигатели, чтобы они показывали низкий уровень выбросов только во время проверок. Таким же образом, по мнению экспертов, может поступить и искусственный интеллект.
Восьмая и, наверно, самая масштабная угроза – стремление к власти. Согласно CAIS, нельзя исключать риски появления у искусственного интеллекта цели стать более независимым: «Изобретая более продвинутые машины, мы играем с огнем». Эксперты CAIS делают вывод: «Уменьшение риска вымирания из-за ИИ должно быть глобальным приоритетом наряду с такими рисками, как пандемии и ядерная война».
Мы предупреждали
Доводы компании нашли отклик во многих сферах. Подписи под заявлением поставили не только ученые и программисты, но также журналисты и бизнесмены. Наиболее знаковыми являются автографы «крестного отца» ИИ Джеффри Хинтона и гендира компании OpenAI Сэма Олтмена.
Ранее, они уже говорили об опасности ИИ. «Я довольно озабочен мыслями о возможных экзистенциальных рисках, которые могут появиться, когда эти штуки станут умнее нас…Я пришел к выводу, что [искусственный] интеллект отличается от нашего. Это как если бы один человек узнал что-то, и вместе с ним то же самое узнали еще 10 тыс. человек. Именно таким образом эти чат-боты знают больше, чем кто-либо».
В умеренные ИИ-пессимисты записались и представители бигтехов, Илон Маск, а также сооснователь Apple Стив Возняк. В своем мартовском открытом письме они потребовали приостановить разработку более совершенных языковых моделей.
«Должны ли мы автоматизировать все рабочие места…? Должны ли мы развивать нечеловеческие мозги, которые могут впоследствии стать умнее…и заменить нас?», - говорилось в письме.
Согласно экспертам, пауза в развитии ИИ даст возможность разобраться в этических и социальных рисках, которые представляет технология. В свою очередь, это должно способствовать разработке более безопасных систем. Тем не менее, некоторые компании выступают против подобных шагов, так как это может навредить их непосредственным интересам.
Согласно Forbes, большинство опрошенных владельцев уверены в позитивном влиянии ИИ на их бизнес. Это касается повышения качества обслуживания (64%), роста продаж (60%), а также и усовершенствования процесса принятия корпоративных решений (44%). Особенно могут возмутиться компании, которые достигли новых высот из-за ассоциации с ИИ. Например, компания Nvidia пробила планку в 1 трлн. долларов рыночной капитализации как раз благодаря буму ИИ. Контраргументом сторонников паузы развития продвинутого ИИ является то, что она станет причиной лишь краткосрочных потерь. По их мнению, в долгосрочной перспективе перерыв и дополнительные исследования могут сделать применение технологии более безопасным и, этим самым, эффективнее сократить издержки бизнеса. Однако и эти доводы убеждают не всех. Противники приостановки развития ИИ утверждают, что «плохие акторы», несмотря на все договоренности, все равно продолжат подстраивать технологию под свои нужды.
ГеополИИтика
Отсюда призывы создать систему его правового регулирования ИИ. В США, например, первые зачатки подобного законодательства появились еще при Трампе (2020 г.), а уже в ноябре 2022 г. администрация Байдена опубликовала план Билля о правах в сфере искусственного интеллекта. Тем не мнее, пока это всего лишь наброски, не имеющие под собой никакой силы.
Совершенно иным образом обстоит дело в Китае. К маю 2023 г. Пекин уже работал над вторым пакетом законов, регулирующих ИИ. На протяжении 6 лет, с 2017 г., КНР изучает юридические аспекты внедрения технологии в большинство сфер жизни. Одна из целей такой активной деятельности – повышение доверия населения к ИИ. Кроме того, наличие правил, по мнению китайских экспертов, позволит предпринимателям с большей уверенностью использовать ИИ-решения в деятельности своих компаний. Более глобальной и долгосрочной целью может быть распространение китайской практики в другие страны, что даст преимущества Пекину в технологическом соперничестве с Соединенными Штатами.
На этот счет есть много разных соображений: часть исследователей уверена в успехе Поднебесной, другая уточняет, что наличие свода правил не отменяет отставания КНР от США по некоторым направлениям ИИ (например, большие языковые модели) – однако все это только подтверждает становление технологий искусственного интеллекта как предмета геополитической борьбы.
Итоги
О потенциальных рисках ИИ говорят давно. На протяжении долгих лет к ним относились поверхностно, так как начало внедрения технологии в повседневную жизнь казалось отдаленным. Тем не менее, появление больших языковых моделей, постепенная интеграция ИИ-решений в области медицины, финансов и даже искусства вынудила экспертов задуматься. Слишком быстрое внедрение искусственного интеллекта, по их мнению, минимизирует шансы на обнаружения проблем в работе тех же языковых моделей. И судя по всему, таких голосов будет все больше.