Кто будет отвечать за ошибки «умных» роботов
Иск искусственному интеллекту
«В логике новой редакции документа будет сформирован новый федеральный проект, который станет частью нового нацпроекта «Экономика данных». Минэку, Минцифры и Минфину предстоит к 15 апреля определить перечень показателей» – сообщает официальный telegram-канал Правительства России.
С одной стороны, ИИ, безусловно, благо, он призван значительно облегчать нашу жизнь, с другой, если доверять ему слишком много функций, человек может оказаться совершенно беззащитен, что повлечет за собой серьезные угрозы, в том числе и для жизни.
Когда-то, на заре создания этой замечательной технологии, способной имитировать мыслительные функции мозга человека и получать данные, сопоставимые с результатами его интеллектуальной деятельности, цифровую технологию нарекли «интеллектом», это была некая романтизация ИИ.
Кстати, в наши дни аналогичное происходит с нашумевшей «зеленой повесткой» – сначала, как о жене цезаря, о ней писали только хорошее. Теперь говорят уже о том, что это не панацея и традиционные источники энергии совсем не заменит.
До сих пор СМИ и ТВ с восхищением рассказывается о будущем, когда ИИ окончательно проникнет во все сферы нашей жизни – и кадры в правительство подбирать начнет, и учить нас будет, и лечить, книги писать…
Только, зачастую, умалчивается, что неизбежны серьезные ошибки, сбои в работе искусственного интеллекта. Процент погрешностей будет расти при размахе его внедрения.
Например, уже значительно растет число ДТП с участием беспилотных электромобилей, все чаще происходят случаи распространения нежелательной информации чат-ботами, блокировки полезных информ-каналов и многое другое.
Специалисты правового агентства «Марков, Злобин и партнеры» отмечают, что отсутствие в России четкого регулирования сферы технологии ИИ уже становится большой проблемой для текущей юридической практики.
Изначально, считают юристы, бомба заложена в самом названии – интеллект.
«Интеллект, разум – это качества человека, связаны они прежде всего с возможностью понимать суть. Очеловечивать же цифровую программу, которая по заданным алгоритмам и стандартам сканирует базы данных и выдает стандартное решение, не понимая сути – неверно», – отмечает управляющий партнер правового агентства Андрей Злобин.
Называть комплекс технологий интеллектом, пусть и с оговоркой – «искусственный», значит, подменять понятия. Когда-то в древности охотники и скотоводы одухотворяли свое оружие и инструменты труда. В 21 веке это кажется глупым – очеловечивать роботизированные технологии, называя их, например, человеческими именами.
Наши дети перестают видеть границы живого и мертвого, общаясь с электронными игрушками, которые в целях маркетинга преподносятся, как «живые и умные».
Пожилые люди не могут различать, кто говорит с ними по телефону – человек или машина.
Обществу пора, наконец, между Человеком и аморфным миром роботов и машин провести разделительную грань – не называть ИИ «интеллектом», человеческими именами.
Чат-бот, робот, голосовой помощник с первый секунд должен себя идентифицировать, называя свой регистрационный номер.
Автомобили когда-то тоже были прорывом в будущее. Но, признав их источником повышенной опасности, каждому присвоили регистрационный номер, видимый для всех, создали дорожные правила и дорожную инфраструктуру, и, главное, предусмотрели меры ответственности водителей и пассажиров.
В такие же понятные для всех правовые рамки пора упаковать искусственный интеллект.
Наталья Апостолова, доктор юридических наук, профессор кафедры процессуального права Южно-Российского института управления, филиала Российской академии народного хозяйства и государственной службы при Президенте РФ, полагает, что за несоблюдение нормативно установленных требований безопасности и других принципов в сфере создания и применения ИИ, а также за противоправные, тем более, за общественно опасные, последствия деятельности автономного искусственного интеллекта должен нести ответственность человек.
«За ошибку искусственного интеллекта, зачастую, некого наказать. Отсюда множество сложных этических и юридических вопросов», – отмечает Александр Марков, соучредитель правового агентства «Марков, Злобин и партнеры».
За допущенные ошибки раньше отвечало конкретное должностное лицо, теперь исполнители услуг стараются спрятаться за искусственный интеллект, виновного найти трудно.
Юристам необходимо устанавливать факт причинения вреда действиями или бездействиями автономного «умного» робота, а потом установить и дать юридическую квалификацию действиям или бездействиям программиста, производителя, пользователя, иного лица, а также наличие либо отсутствие причинно-следственной связи между действиями или бездействиями этих лиц и причинившими вред действиями-бездействиями автономного ИИ.
Уже неоднократно специалистами и правоведами выдвигались предложения по принятию федерального закона, регулирующего правоотношения в сфере технологии ИИ.
Коварность этого, так называемого, «искусственного интеллекта», в том, что, допустим, задачи для его обучения могут быть представлены с заведомой или случайной ошибкой, и в этом случае ИИ будет выдавать неадекватный результат.
Представители силовых структур небезосновательно опасаются, что нейросети смогут обходить защитные программы и активно помогать злоумышленникам, а замена человека технологиями ИИ в некоторых областях является не только нецелесообразной, но и опасной.
Вопреки большому желанию причастных к разработке искусственного интеллекта лиц снять с себя ответственность за возможные негативные последствия применения ИИ, делать этого ни в коем случае нельзя, настаивают правоведы. Безответственность в таком жизненно важном для людей деле неминуемо приведет к произволу и другим непредсказуемым последствиям.
Опасения насчет того, что установить и доказать «прямую связь между действиями производителя или пользователя и тем вредом, который причинил робот, крайне сложно» имеют под собой основания, считает, доктор юридических наук Наталья Апостолова.
Но вместе с тем это вполне посильная задача. Определенную причинно-следственную связь на уровне экспертных исследований выявить и доказать можно при соблюдении закрепленных в «Национальной стратегии развития искусственного интеллекта на период до 2030 года» принципах безопасности и прозрачности.
Недавняя выпускница Российского экономического университета имени Г.В. Плеханова, 23-летняя Анна Сидорова, сотрудник московской юридической компании «Правовые технологии 770», призналась в разговоре с автором статьи, что беззащитность человека перед машиной была самой горячей темой среди студенческого и экспертного сообщества.
Молодое поколение вполне осознает, что это один из важных вызовов, на который, предстоит нам ответить.
Просмотров: 2449