Драма Сэма Альтмана говорит о глубоком расколе в IT-секторе

Идет борьба за будущее не только искусственного интеллекта, но и, возможно, за будущее всего человечества.

Читать на monocle.ru

В последние дни Сэм Альтман неожиданно, наверняка, для самого себя стал главным ньюсмейкером в IT-секторе. Сейчас все обсуждают его неожиданное увольнение 17 ноября с поста главы компании OpenAI, которая возглавляет происходящую в данный момент революцию в сфере искусственного интеллекта (AI). Причины, по которым правление компании решило уволить Альтмана, неясны. По одной из версий, в правлении посчитали, что он слишком быстро расширяет OpenAI в коммерческой сфере, не уделяя при этом достаточного внимания вопросам безопасности. Напомним, что компания обещает работать ради «максимального блага человечества».

Естественно, для всех увольнение Сэма Альтмана стало шоком. Очевидно одно, пишет Economist: бурные события, происходящие сейчас в OpenAI, свидетельствуют о глубоком расколе, который царит в Кремниевой долине. В одном углу ринга так называемые «думеры», т.е. те, кто считает, что в случае непринятия надлежащих мер безопасности AI будет представлять экзистенциальную угрозу для человечества. Следовательно, эта «фракция» выступает за жесткие ограничения и правила в сфере искусственного интеллекта. В противоположном углу ринга «бумеры», т.е. те, кто считает страхи спровоцированного AI апокалипсиса сильно преувеличенными.

На кону этого условного поединка жесткие ограничения по AI, но в конечном счете все, как обычно, упирается в деньги: победитель поединка станет главным бенефициаром очень прибыльной революции AI.

OpenAI, напомним, является некоммерческой компанией и был создан в 2015 году. Через три года из нее выделилась уже коммерческая структура, которая должна была финансировать развитие и деятельность головной фирмы. При этом разногласия, причем, разногласия серьезные существовали с первого дня работы Openai.

Среди тех, кто не считают проблему безопасности с AI серьезной, например, глава Anthropic Дарио Амодей и один из основателей DeepMind Демис Хассабис. Тревожит безопасность AI для человечества и таких IT-гигантов, как Microsoft и Amazon.

Первые поддерживают теорию «акслерационизма», утверждающего, что развитие AI должно проходить не только без ограничений и помех, но еще и очень быстро. Во главе сторонников неограниченного ускорения стоит Марк Андриессен, один из основателей венчурной компании Andreessen Horowitz. Его поддерживают Ян Лекун и Эндрю Нг.

Альтмана, считает Economist, уважают оба лагеря. Они считают, что он стоит над схваткой: с одной стороны, выступает за меры безопасности, но с другой – поддерживает сверхбыстрое развитие AI.

Главным инвестором OpenAI является Microsoft, вложивший в компанию св. 10 млрд долларов и обладающий 49% акций компании, но при этом не имеющий ни одного представителя в правлении. Не удивительно, что больше всех недоволен Microsoft, узнавший об увольнении Альтмана всего за несколько минут того, как тот впервые об этом услышал. Теперь значительная часть команды OpenAI во главе с экс-гендиректором компании может перебраться в Microsoft.

Кроме морали и философии существуют разные взгляды на коммерцию.

Выступая в мае в Конгрессе США, Сэм Альтман много говорил о страхе того, что искусственный интеллект может причинить миру много вреда. Он призывал законодателей принять правила и ограничения для AI. Тогда же, кстати, группа из 350 ученых и инженеров подписала заявление, в котором приравняли AI по степени опасности и угрозы для человечества к ядерной войне и пандемиям. Несмотря эти страшные перспективы ни одна из компаний, поддержавших это заявление, не прекратила собственную работу над созданием более мощных AI-моделей.

Политики делают вид, что серьезно относятся к угрозам. В июне Белый дом потребовал от 7 ведущих изготовителей моделей, среди которых Microsoft, Openai и Google, добровольно взять на себя обязательства перед тем, как продавать свою продукцию покупателям, показать ее экспертам на предмет безопасности. 1 ноября то же самое сделало британское правительство с британскими IT-компаниями.

Большие разногласия у лидеров индустрии по будущему открытого программного обеспечения AI. Модели, работающие на нем, считаются более безопасными, потому что открытое обеспечение можно проверить и внести в него изменения.

На данный момент, считает Economist, создается впечатление, что регуляторы находятся на стороне более острожного подхода. При этом не все IT-гиганты занимают четкую позицию, картина намного сложнее.