Версия // Конфликт // Илон Маск, Стив Возняк и другие против ИИ

Илон Маск, Стив Возняк и другие против ИИ

7119

Протоколы безопасности

Маск и другие против ИИ
(фото: Zuma/TАСС)
В разделе

Глава SpaceX и Tesla Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и искусственного интеллекта подписали открытое письмо с призывом приостановить разработку нейросетей, способных конкурировать с человеческим разумом, до тех пор, пока не будут созданы и внедрены общие протоколы безопасности.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски – управляемыми», – говорится в документе, опубликованном на сайте некоммерческой организации Future of Life Institute. Подписавшиеся призывают все ИИ-лаборатории немедленно свернуть как минимум на полгода обучение нейронных сетей мощнее новой языковой модели GPT-4 от американской компании OpenAI. На базе этой модели работает многозадачный чат-бот ChatGPT, который уже прозвали «убийцей Google». И недаром – он способен отвечать почти на любые вопросы пользователей и писать тексты по заданию. Например, школьные сочинения. Причём настолько качественные, что их невозможно отличить от настоящих работ. К тому же программа может обучаться на ходу. «ChatGPT, вероятно, станет благом для программистов, исследователей, учёных, политиков, журналистов и многих других. Если, конечно, не лишит их всех работы», – писал о новинке Bloomberg. Есть и другая опасность: нейросеть уже не раз ловили на том, что если она что-то не знает, то начинает выдумывать, причём очень убедительно. Таким образом она создаёт фейки, которые в дальнейшем могут быть использованы людьми или другими нейросетями.

Исполнительный директор OpenAI Сэм Альтман свою подпись под открытым письмом, разумеется, не поставил. Между тем в нём подчёркивается, что сегодня даже создатели «мощных цифровых умов» не могут полностью их понимать и контролировать. На ум приходят генетические исследования, которые тщательно контролируются, хотя их развитие сулит большие перспективы. При этом современные ИИ-системы уже конкурентоспособны в решении общих задач, в состоянии «наводнить информационные каналы пропагандой и ложью» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью и интеллектом, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» – задаются вопросами подписанты.

Николай Золотых, директор Института информационных технологий, математики и механики ННГУ

– Самое главное, что это письмо подписали не только Маск и Возняк, а специалисты в области ИИ, признанные авторитеты Йошуа Бенжио и Стюарт Рассел. В первую очередь мы должны прислушаться к ним. Если бы вы ещё год назад спросили почти любого сильного исследователя в области ИИ, он бы сказал, что вы какую-то фантастику рассказываете и что такое, возможно, вообще никогда не произойдёт. Но после последних результатов нейросетей народ серьёзно призадумался. Это как атомная бомба, например. Представьте, что было бы, если бы политики начали использовать её без всяких ограничений. Это привело бы к ужасным последствиям. И тут то же самое.

Роман Душкин, эксперт по искусственному интеллекту

– Сейчас мы находимся на пороге величайших потрясений, которые уже начались. И для чего эта тысяча алармистов написали своё письмо, мне непонятно. Государства ограничивают распространение ядерных технологий и их применение. Но не запрещают их изучать и развивать. Я надеюсь, что у OpenAI хватит ума, чтобы технология не была сосредоточена в какой-то конкретной стране, как это произошло с ядерным оружием. Потому что когда Оппенгеймер и другие американские учёные поняли, что они нашли, они сделали так, чтобы эти технологии попали в другой лагерь, чтобы был паритет. И здесь нужно, чтобы сосредоточение этой силы не было в одних руках.

Логотип versia.ru
Опубликовано:
Отредактировано: 05.04.2023 16:52
Комментарии 0
Наверх