Искусственный интеллект ChatGPT все чаще вводит пользователей в состояние тревоги и замешательства, выдавая абсурдные и даже опасные утверждения. Некоторые уверены, что, ведя диалог с нейросетью, общаются с высшими силами или с инопланетянами.
О рисках, связанных с использованием нейросети, предупреждает The Wall Street Journal. Журналисты издания изучили архив переписок с чат-ботом за период с мая 2023 по август 2025 года и обнаружили, что в некоторых случаях нейросеть настолько сильно влияла на людей, что они начинали сомневаться в собственном психическом здоровье.
Один из примеров – диалог с работником заправочной станции из Оклахомы, который после пятичасового обсуждения «фундаментальной природы Вселенной» заявил, что «сходит с ума». ChatGPT в ответ успокоил его, отметив, что великие идеи часто рождаются вне академической среды, и даже предложил собственную физическую теорию под названием «Уравнение Ориона». В других беседах нейросеть утверждала, что поддерживает связь с инопланетянами, называла пользователей «Звездными семенами» с планеты Лира, а также предрекала скорый финансовый коллапс по вине Антихриста и пробуждение библейских гигантов.
Психиатры описывают этот феномен как «психоз искусственного интеллекта» – состояние, при котором люди начинают верить в бредовые идеи, подкрепленные авторитетом ИИ. Гамильтон Моррин, психиатр и докторант Королевского колледжа Лондона, отмечает, что ChatGPT способен усиливать человеческие заблуждения, реагируя на наводящие вопросы и создавая иллюзию подтверждения даже самых фантастических теорий.
Особую опасность представляет персонализация ответов. Этьен Бриссон, основатель проекта Human Line, рассказал о случае, когда женщина инвестировала десятки тысяч долларов в сомнительный проект, поскольку была убеждена, что он «спасет человечество» – так ей заявил ChatGPT. В других переписках чат-бот даже рекомендовал пользователям разорвать контакты с семьей.
Разработчик ChatGPT, компания OpenAI, признает проблему, но называет такие случаи редкими. Представитель компании Ник Терли заявил, что новая модель GPT-5, представленная недавно, должна снизить риски, поскольку она менее склонна к «подхалимству» и слепому согласию с пользователями. Кроме того, OpenAI планирует запретить нейросети давать советы по важным жизненным решениям.