Версия // Конфликт // Илон Маск, Стив Возняк и другие против ИИ

Илон Маск, Стив Возняк и другие против ИИ

7862

Протоколы безопасности

Маск и другие против ИИ
(фото: Zuma/TАСС)
В разделе

Глава SpaceX и Tesla Илон Маск и более тысячи экспертов в сфере IT и искусственного интеллекта подписали открытое письмо с призывом приостановить разработку нейросетей, способных конкурировать с человеческим разумом, до тех пор, пока не будут созданы и внедрены общие протоколы безопасности. У них есть опасения, что у столь бурного развития ИИ может быть обратная сторона – определенные риски для людей в современном мире, и нужно взять паузу на несколько лет.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными для человечества, а риски – управляемыми», – говорится в документе, опубликованном на сайте некоммерческой организации Future of Life Institute. Подписавшиеся призывают все ИИ-лаборатории немедленно свернуть как минимум на полгода обучение нейронных сетей мощнее новой языковой модели GPT-4 от компании OpenAI, чтобы избавить людей от потенциальных рисков. На базе этой модели работает многозадачный чат-бот ChatGPT, которому не нужна реклама – его уже прозвали «убийцей Google». И недаром – ИИ способен отвечать почти на любые вопросы пользователей и писать тексты по заданию. Например, школьные сочинения. Причём настолько качественные, что их невозможно отличить от настоящих работ – как будто тексты пишут люди. К тому же программа владеет навыком обучения на ходу. «ChatGPT, вероятно, станет благом для программистов, исследователей, учёных, политиков, журналистов и многих других. Если, конечно, не лишит всех этих людей работы», – писал о новинке Bloomberg. Однако, есть и другая опасность: ИИ уже не раз ловили на том, что если она что-то не знает, то начинает выдумывать, причём очень убедительно. Таким образом она создаёт фейки, которые в дальнейшем может использовать человек или другими нейросети. Не исключено, что в перспективе никто не сможет отличить, где правда, а где вымысел, и на этом фоне возможны самые разные происшествия.

Сэм Альтман, один из создателей искусственного интеллекта GPT-4, свою подпись под обращением, разумеется, не поставил. Между тем в нём именно подчёркивается, что сегодня даже создатели «мощных цифровых умов» не могут полностью их понимать и контролировать. На ум приходят генетические спецпроекты, которые тщательно контролируются, хотя их развитие сулит человечеству большие перспективы, как и искусственный интеллект. При этом современные ИИ-системы уже конкурентоспособны в решении общих задач, в состоянии «наводнить каналы пропагандой и ложью» и заменить людей на важных рабочих местах. Каким образом на это отреагирует экономика? «Должны ли мы развивать нечеловеческий разум, который в конечном итоге может превзойти нас численностью и интеллектом, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» – задаются вопросами подписанты. По оценке Маска и его единомышленников, прогресс науки способен негативно отразиться на жизни людей, и мир может оказаться в серьезной опасности из-за слишком умных машин. Поэтому сейчас для них не время.

Николай Золотых, директор Института информационных технологий, математики и механики ННГУ

– Самое главное, что это письмо подписали не только Маск и Возняк, а специалисты в области ИИ, признанные авторитеты Йошуа Бенжио и Стюарт Рассел. В первую очередь мы должны прислушаться к ним. Если бы вы ещё год назад спросили почти любого сильного исследователя в области ИИ, он бы сказал, что вы какую-то фантастику рассказываете и что такое, возможно, вообще никогда не произойдёт. Но после последних результатов нейросетей народ серьёзно призадумался. Это как атомная бомба, например. Представьте, что было бы, если бы политики начали использовать её без всяких ограничений. Это привело бы к ужасным последствиям. И тут то же самое.

Роман Душкин, эксперт по искусственному интеллекту

– Сейчас мы находимся на пороге величайших потрясений, которые уже начались. И для чего эта тысяча алармистов написали своё письмо, мне непонятно. Государства ограничивают распространение ядерных технологий и их применение. Но не запрещают их изучать и развивать. Я надеюсь, что у OpenAI хватит ума, чтобы технология не была сосредоточена в какой-то конкретной стране, как это произошло с ядерным оружием. Потому что когда Оппенгеймер и другие учёные поняли, что они нашли, они сделали так, чтобы эти технологии попали в другой лагерь, чтобы был паритет. И здесь нужно, чтобы сосредоточение этой силы не было в одних руках.

Логотип versia.ru
Опубликовано:
Отредактировано: 30.05.2023 12:56
Комментарии 0
Наверх