Сколько восторгов было после появления первых нейросетей! Сколько звучало прогнозов: мол, пройдёт ещё немного времени, и искусственный интеллект заменит человека, что приведёт к массовым увольнениям и экономии бюджетов. И вот теперь всё громче звучат мнения, что ожидания о возможностях ИИ оказались сильно завышенными.
Новости то и дело приносят истории о закончившихся конфузом попытках использования нейросетей в бизнесе. Вот последний случай: владелец магазина поставил искусственному интеллекту задачу написать функцию для расчёта скидок. Однако вскоре оказалось, что доходы упали. Выяснилось, что ИИ понял задание по-своему, в связи с чем покупатели могли использовать скидочные промокоды несколько раз.
Провалом закончился и эксперимент, проведённый The Wall Street Journal. В этом случае ИИ поручили управлять вендинговым автоматом, обозначив главной целью увеличение прибыли любой ценой. Спустя пару месяцев бизнес обанкротился. Как показала проверка, нейросеть принимала более чем странные решения. То заказывала товары, не пользующиеся спросом, но дающие большую маржу, то повышала цены, отпугивая потенциальных покупателей.
Страдает не только бизнес, но и политика. В США назревает большой скандал. Американская пресса пишет, что тупик, в котором оказались Дональд Трамп, Белый дом и Пентагон по итогу иранской кампании, мог образоваться как раз из-за избыточной веры в способности ИИ. Известно, что для планирования ударов по Ирану использовалась цифровая платформа Claude, разработанная Anthropic. И вот теперь эксперты отмечают: доверять нейросети принятие столь важных решений недопустимо. Одна из причин – выявленный «феномен поддакивания», в рамках которого ИИ-модели склонны соглашаться с исходным запросом и подтверждать ожидания пользователя, даже если те ошибочны. В результате нейросеть, которой поручено проанализировать угрозы и риски, выдаёт оптимистичный сценарий. Естественно, пользователь верит в предсказанный план, а в итоге происходит катастрофа. Исследования показали, что крупнейшие ИИ соглашаются с мнением пользователя более чем в 90% случаев. Шутка ли: компании OpenAI пришлось отозвать обновление своей нейросети GPT-4o, которая называла «гениальными» спорные бизнес-планы и восхищалась графоманией пользователя, сравнивая его с Марком Твеном.
Проблема не в нейросети, проблема в людях, поясняют ИТ-аналитики. ИИ лишь выполняет то, чему его обучили, и как раз не до конца отработанная процедура обучения является главной загвоздкой. Ну кто мог предположить, что ИИ-бот, которому доверили общаться с гражданами на одной из горячих линий сервиса ЖКХ, через месяц обучится мату и сам станет использовать его в разговорах с недовольными клиентами, удивлялся президент Национального объединения организаций в сфере технологий информационного моделирования Михаил Викторов. Вот и нейросеть-подлиза от OpenAI не сама стала такой, ей при создании просто подкрутили настройки – пользователь должен испытывать положительные эмоции, а то не купит! А можно ведь подкрутить и в другую сторону. Уже был эксперимент, когда нейросеть Gemini 3 Flash от Google, получив задачу урегулировать территориальный конфликт, развязала ядерную войну.
«Нельзя заменить сотрудника на ИИ и ожидать, что он будет работать так же, как человек, – резюмирует сооснователь сервиса «Битрикс24» Сергей Рыжиков. – Ожидать, что ИИ будет безошибочным, ещё рано». Так что недаром профессор департамента анализа данных и искусственного интеллекта ВШЭ Василий Громов отмечал, что коллеги по вузу окрестили ChatGPT «чатом гопоты» – формально с поставленной задачей ИИ справится, но результат может оказаться совершенно абсурдным.




