Сотрудники компаний OpenAI и Google DeepMind выступили с открытым письмом. В нём они просят предоставить разработчикам технологий в области искусственного интеллекта возможность без разрешения работодателей рассказывать о потенциально опасных для человечества угрозах, которые несёт ИИ. Хотя доводы авторов письма звучат обоснованно, вряд ли их позиция будет поддержана – слишком большие деньги стоят на кону.
Авторы письма приводят следующие аргументы. Понимая, что за искусственным интеллектом (ИИ) будущее, ведущие компании вкладывают огромные деньги в создание новых моделей, пытаясь застолбить за собой место. При этом никаких ограничителей в виде государственного регулирования в сфере создания ИИ не существует. Как результат – разработчики творят что хотят. Один из авторов письма, бывший топ-менеджер OpenAI Дэниел Кокотайло, рассказывает, что компания крайне редко правильно тестирует свои интеллектуальные продукты перед их выпуском. В частности, Microsoft в 2022 году тайно начал тестировать в Индии свой поисковик Bing на основе нейросети GPT-4, причём совет по безопасности не был поставлен в известность. Когда же нейросеть начала вести себя странно, давать на запросы пользователей неадекватные ответы, эксперимент не стали прекращать. В свою очередь, четверо бывших сотрудников OpenAI подтвердили, что в компании главенствовал принцип: сначала выпустим продукт, потом будем исправлять проблемы с ним.
В связи с этим авторы письма предлагают государству разрешить сотрудникам компаний, занятых разработкой технологий ИИ, не соблюдать подписанное обязательство о неразглашении информации и ставить общественность в известность, если создаваемые продукты покажутся угрозой для человечества. Не слишком ли громкое обвинение в адрес ИИ? Не слишком, уверен бывший сотрудник OpenAI Леопольд Ашенбреннер. Он опубликовал 165-страничный доклад «Осведомлённость о ситуации: предстоящее десятилетие», в котором описывает внутреннюю кухню работы над ИИ и даёт прогноз его развитию. «Гонка за ИИ началась. Мы строим машины, которые могут думать и рассуждать. К концу десятилетия они будут умнее нас с вами, у нас будет суперинтеллект в истинном смысле слова», – констатирует Ашенбреннер и начинает перечислять. Сейчас, пишет он, американский бизнес вкладывает гигантские деньги в развитие искусственного интеллекта. Это уже привело к тому, что за каких-то четыре года системы ИИ «поумнели» в разы. Так, если нейросеть GPT-2 имела разум выпускника детского сада, то GPT-4 уже можно сравнить с выпускником-отличником старшего класса. И это явно не предел – как предсказывает Ашенбреннер, к 2027 году появится AGI (Artificial General Intelligence) – искусственный интеллект, готовый выполнять любую интеллектуальную задачу, которую только способен выполнить человек. Следующей ступенькой станет суперинтеллект, превосходящий человека в развитии. Так человечество может оказаться в одном из самых напряжённых и нестабильных моментов в своей истории, предупреждает Ашенбреннер, сравнивая AGI с атомной бомбой, а суперинтеллект – с водородной: если первая может уничтожить город, то вторая – целую страну. AGI сейчас становится важнейшим геополитическим ресурсом. Ядерная бомба – это прошлый век, искусственный интеллект намного сильнее её. Потому ведущие страны пойдут на всё, чтобы первыми получить AGI. Это может обострить конфликт между США и Китаем, которые будут пытаться создать его ради своей безопасности и воровать друг у друга технологии, а то и спровоцировать войну между двумя супердержавами. А что если слишком умный искусственный интеллект выйдет из-под контроля?
Представители РПЦ, эксперты в областях биоэтики, науки и информации, рассказали, почему искусственный интеллект никогда не сможет заменить священнослужителей.
Стоит сказать, что все эти моменты ранее уже становились темой для обсуждения. В частности, весной прошлого года Илон Маск, Стив Возняк и более тысячи (!) экспертов в сфере IT и искусственного интеллекта подписали открытое письмо с призывом приостановить разработку нейросетей, способных конкурировать с человеческим разумом. По крайней мере до тех пор, пока не появятся общие протоколы безопасности использования ИИ. Однако инициатива осталась без ответа. Неудивительно – внедрение ИИ сулит баснословные прибыли. Примером тому история руководителя компании OpenAI Сэма Альтмана, которого совет директоров со скандалом уволил осенью прошлого года. Поводом для этого стало обращение сотрудников OpenAI, заметивших, что разрабатываемая Альтманом программа Q* несёт опасность для человечества. Дело в том, что Q* мог обучаться без обратной связи, находя оптимальные решения поставленных перед ним задач без вмешательства человека. Коллеги Альтмана отмечали, что того влекут лавры первооткрывателя при отсутствии чувства ответственности. В результате Альтмана уволили, однако затем, изучив, какие перспективы несёт его разработка, восстановили в должности. Спустя полгода OpenAI выпустила новую нейросеть GPT-4 Omni, на голову превосходящую предыдущую версию. Потому можно предположить, что нынешнее открытое письмо также останется одиноким гласом, вопиющим в информационной пустыне.
Прогноз
- Для создания AGI потребуется единый вычислительный кластер стоимостью триллион долларов. Подобный кластер уже строит Microsoft для OpenAI
- Этот кластер будет потреблять больше электроэнергии, чем все США, вместе взятые
- Финансирование AGI будет исходить от крупных технологических компаний. Уже сегодня Nvidia, Microsoft, Amazon и Google выделяют 100 млрд долларов на ИИ ежеквартально
- К 2030 году ежегодные инвестиции в ИИ достигнут 8 трлн долларов
- Если вам кажется, что это звучит фантастически – это не так. Сопоставимые затраты и глобальные изменения происходили во время Манхэттенского проекта и Промышленной революции.