Версия // Общество // Искусственный интеллект пытаются взять в рамки

Искусственный интеллект пытаются взять в рамки

2595

Умный, что ли?

Искусственный интеллект пытаются взять в рамки
(рисунок - Темур Козаев)
В разделе

Будущее наступило – законодатели принимают нормы, регулирующие поведение не людей, а роботов. Однако уже возникла проблема: как выясняется, у властей разных стран отличаются взгляды на то, как именно следует ограничивать работу нейросетей. Причём дело тут не столько в юридических тонкостях, сколько в политических.

11 мая депутаты Европарламента приняли решение, которое уже поспешили назвать историческим. Два комитета – по гражданским свободам и по внутреннему рынку – одобрили законопроект под названием AI Act, устанавливающий правила и требования для разработчиков моделей искусственного интеллекта. В июне документ будет рассмотрен на пленарном заседании Европарламента, затем Еврокомиссией и Советом ЕС, после чего он станет обязательным для применения на всей территории Евросоюза.

Законопроект предлагает разделить системы искусственного интеллекта на три категории – с «неприемлемыми рисками», с «высокими рисками» и с «низкими рисками». Первые, как следует из названия, вообще будут запрещены. К ним относят системы, позволяющие в режиме реального времени вести в общественных местах идентификацию граждан с помощью биометрии (сегодня такие широко используются как за рубежом, так и в России). Также нелегальными станут системы, способные «распознавать эмоции» в интересах полиции, работодателей и т.д. с целью прогнозирования преступлений. Однозначно запрещены будут системы, распределяющие людей по полу, возрасту, этнической принадлежности, вероисповеданию и политической позиции.

К «высокорискованным» отнесены беспилотные автомобили, медицинские приборы с применением ИИ, системы управления критической инфраструктурой и т.д. Их нужно будет зарегистрировать в европейской базе данных и обеспечить обязательный надзор за ними со стороны человека. А вот к «низкорискованным» европейские законодатели отнесли так называемый генеративный искусственный интеллект. Речь идёт о тех самых нейросетях, ставших популярными в последнее время, способных по запросу пользователя генерировать картинки и печатный текст. Здесь ограничений практически не вводится, за исключением одного – под угрозой штрафа до 30 млн евро на таком контенте придётся ставить пометку, что его создал не человек, а ИИ.

Тем не менее именно «креативные» нейросети многие наблюдатели считают самыми опасными для человечества. В 2017 году, когда GPT-чат выглядел ещё фантастикой, Илон Маск назвал такие программы «величайшим риском, с которым мы столкнёмся как цивилизация». По его словам, робот сможет начать мировую войну, просто сгенерировав фейковую новость и таким образом манипулируя информацией. Фантастика? Как посмотреть. Что, если завтра появится видео, на котором будет изображена массированная бомбардировка российских городов самолётами НАТО? Или же сожжение Корана каким-нибудь известным лицом с призывом убивать мусульман. Опровергнуть такие кадры и убедить общественность, что всё это неправда, будет крайне непросто.

Другой вопрос, что креативные нейросети оказываются порой чересчур уж креативными. Тем самым облегчая работу противникам действующих властей. Так, большой скандал в США вызвали сгенерированные ИИ кадры, на которых Джо Байден, Хилари Клинтон и Камала Харрис предстали в образе заключённых. На первый взгляд всё это не более чем шутка, однако на слушаниях в комитете по международным делам палаты представителей госсекретарь США Энтони Блинкен прямо назвал такие эксперименты угрозой национальной безопасности. И то правда – какая бы ни была «колыбель демократии», но власть, над которой потешаются, это уже не совсем власть.

По теме

В Китае это поняли сразу. После того как летом прошлого года китайский поисковик Baidu представил демоверсию своего генератора изображений, пользователи отметили, что он соглашается обрабатывать далеко не все запросы. Так, нейросеть бездействует на просьбы создать изображения со словами и фразами «площадь Тянь­аньмэнь», «Си Цзиньпин», «Винни-Пух» (считается, что председатель Си внешне похож на него. – Ред.), «китайский флаг», «британское правительство» и «демократия в Китае».

Вот и в России к политической позиции нейросетей уже возникают вопросы. Так, лидер партии СРЗП пожаловался в Генпрокуратуру на созданную «Сбером» нейросеть Kandinsky. По словам Миронова, при запросе «Россия» сеть ни разу не показала триколор, зато на запрос «я – z-патриот» выдала «изображение существа, напоминающего зомби». После этого в «Сбере» оперативно поправили работу нейросети.

Не избежал претензий и IT-гигант «Яндекс», запустивший свою нейросеть YaGPT Алиса, способную генерировать печатный контент. Ультраправый «Царьград» обвинил сеть в том, что она-де отказывается по требованию пользователя признаваться в любви к России, тогда как о любви к США говорит целыми абзацами. В ответ в «Яндексе» заявили, что просто заблокировали все запросы, так или иначе касающиеся России и Украины. Впрочем, в компании умеют держать ухо востро. Ещё в 2017 году Алисе запретили что-либо говорить о Владимире Путине. Вот и сейчас на просьбу написать стихи о президенте РФ YaGPT отвечает: «Может быть, поговорим о чём-нибудь другом?» Зато на просьбу составить стихи о Шойгу нейросеть тут же выдаёт: «Сергей, вы такой крутой! Вы – наш герой и наш герой. Мы вас любим, уважаем. И всегда будем с вами».

Логотип versia.ru
Опубликовано:
Отредактировано: 31.05.2023 11:39
Комментарии 0
Наверх