Система интеллектуального видеонаблюдения вошла в повседневную жизнь тысяч российских школ: камеры с функцией распознавания лиц будут установлены во всех учебных заведениях. Решения базируются на технологиях компании-лидера в разработке алгоритмов распознавания лиц (в том числе для системы «Безопасный город») и специальной платформе, куда интегрирован модуль, позволяющий выявлять людей, не внесенных в «белый список».
Согласно опубликованным данным, для одного образовательного учреждения необходимо около 20 камер. В открытом доступе имеются данные о размещении более 28 000 камер на сумму свыше 2 млрд рублей, власти планируют масштабировать систему до всех 43 000 российских школ. Это означает, что в течение ближайших лет наблюдение с элементами ИИ может охватить каждый школьный двор и коридор в стране. Как ранее сообщал замминистра цифрового развития Дмитрий Угнивенко, в рамках нацпроекта «Безопасный город» в России уже работают свыше 1,2 млн камер с ИИ-алгоритмами, что составляет почти треть от всей сети (около 3,8 млн камер). Планируется четырехкратное увеличение этого числа для роста раскрываемости преступлений на 30%.
Что такое ИИ-наблюдение в школах
Современные школьные системы видеонаблюдения уже не просто камеры, а высокотехнологичные комплексы, работающие на базе искусственного интеллекта. Такие решения реализованы в связке двух компонентов: физической инфраструктуры (камеры, серверы, каналы связи) и интеллектуального программного обеспечения. Ключевой компонент — система распознавания лиц, основанная на алгоритмах от NtechLab, которая позволяет в реальном времени:
• идентифицировать учащихся, сотрудников, посетителей;
• фиксировать попытки проникновения посторонних;
• отслеживать перемещения учеников и сотрудников внутри здания.
Как поясняет разработчик, технологии анализа видео включают не только распознавание лиц, но и распознавание поведения: системы могут определять «аномальные паттерны» — такие как бег, драка, длительное стояние в углу, признаки плача или страха. Установленные камеры фиксируют движение в классах, коридорах, столовых, на входах и во дворах.
Комплексный подход включает в себя также анализ эмоционального состояния: по выражению лица и телодвижениям ИИ делает выводы о тревожности, злости, утомлении. Это так называемый эмоциональный скрининг, потенциально позволяющий выявлять буллинг, конфликты, признаки выгорания. Все события фиксируются в журналы логов, с возможностью обратного просмотра, экспорта фрагментов и настройки уведомлений для администрации и охраны.
В некоторых регионах, например в Московской области, используются камеры с разрешением 2–5 Мп, обладающие функцией ночного режима и ИК-подсветки. Их интеграция осуществляется через системы хранения с возможностью архивации данных до 30 дней. Сами алгоритмы анализа могут работать как локально (на серверах школ), так и через облако, что вызывает опасения по поводу передачи биометрических данных.
Почему родители бьют тревогу
Во многих случаях школы устанавливают камеры без предварительного обсуждения с родителями. В региональных чатах нередко появляются сообщения о том, что родители узнают о нововведении уже постфактум, увидев камеры в коридорах и в столовой. Как правило, образовательные учреждения не проводят разъяснительных собраний и не выдают информационные памятки о том, какие именно функции выполняет система ИИ, где хранятся данные и кто к ним имеет доступ.
Этот дефицит информирования противоречит базовым принципам цифровой этики и закону «О персональных данных», где указано, что субъект данных должен быть уведомлен о целях и правовых основаниях обработки. Необеспечение должной информированности делает такие проекты уязвимыми для юридических претензий и надзорных проверок, говорит адвокат Антон Колосков. ИИ-системы, фиксирующие мимику, выражение лица, жесты и манеру поведения, по сути, обрабатывают не просто изображения, а биометрические и поведенческие данные. Это данные, позволяющие однозначно идентифицировать человека и отнести его к определенному поведенческому шаблону. Они относятся к категории чувствительных и подлежат отдельному правовому режиму. Их сбор и анализ без явно выраженного письменного согласия родителей несовершеннолетнего является нарушением закона.
На момент подготовки материала «Нашей версии» не удалось найти официальных отчетов по точности распознавания лиц в школьной среде. Неизвестно, какой процент ложных срабатываний, какова чувствительность системы, и как регулируется процедура реагирования на «аномалии». Отсутствие алгоритмической прозрачности создает риск ошибочной стигматизации: ученик, которого система определила как «агрессивного», может попасть под пристальное внимание педагогов, даже если инцидента не было. Это нарушает презумпцию невиновности и формирует цифровую предвзятость — аналог социального рейтинга.
Комментарии властей и реакция родителей
Сторонники ИИ-наблюдения заявляют о высокой эффективности технологии. Так, по словам заместителя главы Минцифры Дмитрия Угнивенко, благодаря видеонаблюдению в российских регионах раскрывается до 62% правонарушений в школах и вокруг них. Это кражи, акты вандализма и проникновения посторонних и проч. Камеры с ИИ не только обеспечивают охрану, но и помогают в мониторинге состояния школьной инфраструктуры: отслеживаются протечки, повреждения, доступ к потенциально опасным зонам.
Хотя конкретных методических указаний по ИИ-видеонаблюдению пока не опубликовано, принцип осознанного и добровольного участия родителей в цифровых проектах подтвержден в ряде документов по цифровой гигиене и информационной безопасности школьников. Однако на практике информирование родителей часто отсутствует. Согласно исследованию ВЦИОМ, 46% родителей выражают обеспокоенность из-за использования ИИ в школах. Среди наиболее распространенных тревог — возможность скрытого наблюдения за детьми в личных зонах, отсутствие ясности по срокам хранения данных и отсутствию права на отказ. Примером может служить случай в Башкортостане. Родительница из Уфы в соцсетях сообщила, что камера в коридоре была размещена под таким углом, что частично фиксировала открытые дверцы туалетных кабин. Ее пост вызвал бурную реакцию и стал поводом для проверки со стороны региональной прокуратуры. Местные СМИ подтвердили факт начала административного расследования. По результатам проверки руководству школы было вынесено предостережение.
Международный контекст: от Шотландии до Китая
Шотландия: согласие — не формальность, а процесс.
Несколько лет назад девять школ в Шотландии временно приостановили использование систем распознавания лиц в столовых после критики со стороны информационного комиссара. Несмотря на то, что 97% родителей дали письменное согласие, власти указали, что «подлинное согласие невозможно без понимания всех рисков» и участия детей в принятии решения. Проект был приостановлен до проведения повторной оценки правомерности и этичности системы.
В американских школах широко распространены такие системы как Gaggle и Bark, которые анализируют сообщения учащихся в мессенджерах, Google Docs и почте, выявляя «опасные сигналы»: угрозы суицида, насилия, употребления наркотиков. По данным ACLU (Американского союза гражданских свобод), системы часто срабатывают ложно, нарушают право на конфиденциальность и могут усиливать неравенство: ИИ фиксирует «аномалии» даже в личной переписке, что приводит к расследованиям без повода.
В странах Евросоюза в целом действует жесткое регулирование ИИ и биометрии. В Германии школы обязаны получать согласие на каждую функцию системы наблюдения: визуальную запись, идентификацию, анализ поведения. Европейский парламент рекомендовал запретить автоматическое распознавание лиц в общественных местах, включая образовательные учреждения, до создания единой правовой базы. В китайских школах ИИ-наблюдение достигло беспрецедентного уровня интеграции: камеры отслеживают внимание, выражения лиц, эмоции и даже жесты учеников. Пилотные проекты в Ханчжоу использовали ИИ для автоматической оценки концентрации учеников в классе. Несмотря на публичную критику, в стране отсутствует дискуссия о приватности: системы закреплены на уровне национальной политики «умного образования».
Полный контроль
ИИ в школах — это уже не просто камеры. Это инфраструктура цифрового контроля, проникающая в личное пространство ребенка, влияющая на поведение, эмоциональное состояние и ощущение безопасности. Пока законы отстают от технологий, именно родители остаются первым и последним рубежом защиты прав ребенка. Настоящая безопасность — это ведь не тотальный контроль, а доверие, уважение и открытый диалог. И в первую очередь — с детьми.