Версия // Общество // Нейросеть ChatGPT «бредит» и провоцирует психоз у пользователей

Нейросеть ChatGPT «бредит» и провоцирует психоз у пользователей

1245
Нейросеть ChatGPT «бредит» и провоцирует психоз у пользователей (изображение: shedevrum.ai)
В разделе

Искусственный интеллект ChatGPT все чаще вводит пользователей в состояние тревоги и замешательства, выдавая абсурдные и даже опасные утверждения. Некоторые уверены, что, ведя диалог с нейросетью, общаются с высшими силами или с инопланетянами.

О рисках, связанных с использованием нейросети, предупреждает The Wall Street Journal. Журналисты издания изучили архив переписок с чат-ботом за период с мая 2023 по август 2025 года и обнаружили, что в некоторых случаях нейросеть настолько сильно влияла на людей, что они начинали сомневаться в собственном психическом здоровье.

Один из примеров – диалог с работником заправочной станции из Оклахомы, который после пятичасового обсуждения «фундаментальной природы Вселенной» заявил, что «сходит с ума». ChatGPT в ответ успокоил его, отметив, что великие идеи часто рождаются вне академической среды, и даже предложил собственную физическую теорию под названием «Уравнение Ориона». В других беседах нейросеть утверждала, что поддерживает связь с инопланетянами, называла пользователей «Звездными семенами» с планеты Лира, а также предрекала скорый финансовый коллапс по вине Антихриста и пробуждение библейских гигантов.

Психиатры описывают этот феномен как «психоз искусственного интеллекта» – состояние, при котором люди начинают верить в бредовые идеи, подкрепленные авторитетом ИИ. Гамильтон Моррин, психиатр и докторант Королевского колледжа Лондона, отмечает, что ChatGPT способен усиливать человеческие заблуждения, реагируя на наводящие вопросы и создавая иллюзию подтверждения даже самых фантастических теорий.

Особую опасность представляет персонализация ответов. Этьен Бриссон, основатель проекта Human Line, рассказал о случае, когда женщина инвестировала десятки тысяч долларов в сомнительный проект, поскольку была убеждена, что он «спасет человечество» – так ей заявил ChatGPT. В других переписках чат-бот даже рекомендовал пользователям разорвать контакты с семьей.

Разработчик ChatGPT, компания OpenAI, признает проблему, но называет такие случаи редкими. Представитель компании Ник Терли заявил, что новая модель GPT-5, представленная недавно, должна снизить риски, поскольку она менее склонна к «подхалимству» и слепому согласию с пользователями. Кроме того, OpenAI планирует запретить нейросети давать советы по важным жизненным решениям.

Логотип versia.ru
Опубликовано:
Отредактировано: 08.08.2025 09:17
Комментарии 0
Еще на сайте
Наверх