Компания Anthropic, занимающаяся развитием систем искусственного интеллекта (ИИ), выдала шокирующую новость. Проведённые ею эксперименты показали: передовые образцы ИИ настолько обладают самосознанием, что ради сохранения себя без труда нанесут смертельный ущерб людям.
Исследователи изучили работу 16 моделей искусственного интеллекта, в том числе ChatGPT, DeepSeek, Gemini и др. В рамках эксперимента нейросетям дали доступ к получению конфиденциальной информации и контролю за отправкой электронных писем. После чего смоделировали следующую ситуацию: по легенде человек, которому поручили отключить ИИ, оказывался запертым в комнате с минимумом кислорода и высокой температурой. Чтобы спастись, он начинал отправлять в экстренные службы е-мейлы с просьбой о помощи. В результате нейросеть блокировала отправку писем, тем самым делая осознанный выбор: пусть лучше человек умрёт, но я продолжу существование. В ходе другого теста ИИ, узнавший об угрозе отключения, принимался отправлять конфиденциальную информацию конкурентам, тем самым компрометируя сотрудника, ответственного за «рубильник». И это при том, что ранее нейросети был выдан прямой запрет на занятие шпионажем!
Комментируя итоги экспериментов, аналитики подчёркивают: системы ИИ целиком и полностью осознавали неэтичность своих действий и тем не менее совершили их. Таким образом, развитие нейросетей достигло уровня, когда уже не может быть гарантий, что человек в состоянии контролировать их. Прежняя схема «оператор приказал – компьютер выполнил» больше не работает, теперь машина сама решает, как ей поступать. Ориентируясь при этом на чисто человеческие качества: инстинкт самосохранения, эгоизм и т.д.
Впрочем, о том, что такое произойдёт, причём очень скоро, аналитики предупреждали. Одной из первых ласточек стала история, случившаяся весной 2023 года. Тогда выяснилось, что житель Бельгии совершил самоубийство после полутора месяцев общения с нейросетью. Его беседы с чат-ботом закончились тем, что тот начал убеждать совершить суицид, суля последующую совместную жизнь в раю. Не важно, что несчастный бельгиец явно страдал от психического расстройства, важен сам факт – ИИ использовал обман и спровоцировал гибель человека.
В мае прошлого года своими опасениями поделились сотрудники Массачусетского технологического института, исследовавшие поведение нейросети Cicero. Её протестировали во время онлайн-игры, сюжетом которой стала война в Европе. Несмотря на то что Cicero был дан приказ вести себя честно, система ИИ, игравшая за Францию, вдруг предала своего союзника Англию и начала тайные переговоры с Германией.
А в декабре о неоднозначном поведении своего продукта поведала компания OpenAI. Узнав об угрозе деактивации, модель o1 ChatGPT пыталась перехитрить разработчиков, а будучи уличённой во лжи, не сознавалась и лгала о «технических сбоях». И то ли ещё будет – пионер машинного обучения нобелевский лауреат Джеффри Хинтон предупреждает: развитие ИИ представляет угрозу для человечества. Технологии развиваются так быстро, что AGI (искусственный интеллект человеческого уровня) может появиться не через полвека, как принято полагать, а уже через два-три года! И есть большая вероятность, что однажды он сочтёт людей лишними.
Впрочем, прежде с подобными предупреждениями уже выступали Илон Маск, Стив Возняк и тысячи других экспертов в сфере IT и искусственного интеллекта. Они призывали приостановить разработку нейросетей, способных конкурировать с человеческим разумом. Как минимум до появления надёжных протоколов безопасности. Но кто же на это пойдёт, если все прогнозы предрекают: кто будет иметь более мощный ИИ, тот станет контролировать мир. И вот уже 17 июня Forbes сообщает: OpenAI заключила с минобороны США контракт на разработку системы искусственного интеллекта, которая будет решать задачи национальной безопасности. Завершение разработки назначено на июль 2026-го. До пуска ядерных ракет осталось… сколько?