Управляющим компаниям грозят штрафы за грубые ответы ИИ-помощников
Об этом в интервью NEWS.ru рассказал Дмитрий Бондарь, общественный деятель и эксперт в сфере жилищно-коммунального хозяйства.
Специалист привёл конкретный случай, произошедший в начале 2026 года, когда виртуальный ассистент одной из УК неожиданно начал употреблять нецензурную лексику в диалогах с жильцами. По мнению эксперта, причиной такого нестандартного поведения стал сам процесс машинного обучения: алгоритм слишком активно перенимал манеру общения у реальных людей. Учитывая, что в диспетчерские службы жители часто звонят, будучи на взводе или раздражёнными, ИИ перенял эту негативную модель коммуникации.
Как пояснил Бондарь, искусственный интеллект начал воспроизводить грубый стиль разговора, однако для компаний такая «обучаемость» чревата вполне реальными финансовыми потерями. Действующее законодательство предусматривает наказание за оскорбление личности и унижение человеческого достоинства, если это выражено в неприличной форме. Для юридического лица штраф по такой статье может составить от 100 до 200 тысяч рублей.
Эксперт полагает, что управляющие компании вряд ли поспешат полностью отказаться от использования цифровых помощников. Главный аргумент в их пользу – существенная экономия на фонде оплаты труда. Более того, Бондарь подчёркивает, что в большинстве случаев роботы исправно выполняют свои функции, успешно обрабатывая типовые запросы, такие как приём показаний приборов учёта.
В феврале появлялась информация о том, что отечественная разработка – голосовой помощник для нужд УК – выучила ненормативную лексику, что вынудило её создателей вмешаться и перенастроить нейросеть. Этот случай на Сибирском строительном форуме предал огласке Михаил Викторов, возглавляющий Национальное объединение организаций в сфере технологий информационного моделирования (НОТИМ).
Просмотров: 18