Жители США живут в ожидании конца света и всерьез испытывают из-за этого страх и тревогу. Они, к примеру, боятся ядерной войны и угрозы искусственного интеллекта. Профессор Юрий Жданов оценил обоснованность их опасений и масштабы охватившей Штаты апокалиптической эпидемии.
Писательница Кристина Эмба в своем материале для NYT обратила внимание на настроения американцев: «Конец близок. За последние три месяца барабанная дробь о конце времен, похоже, стала громче. И повсюду ощущалось нарастающее чувство всеобщей тревоги». По ее словам, в последние десятилетия в США ждали конца света из-за кризиса перенаселения, пандемии, ядерной войны, системного компьютерного сбоя, глобального потепления и не только. Но на сегодняшний день паника как никогда сильна, и этому во многом поспособствовали возвращение в Белый дом Дональда Трампа и бурное развитие искусственного интеллекта.
Исполнительный секретарь Координационного совета генеральных прокуроров государств-участников СНГ, доктор юридических наук, заслуженный юрист России, заведующий кафедрой международного права РГСУ профессор Юрий Жданов в интервью МК оценил положение дел. По его словам, слухи о надвигающемся апокалипсисе распространяются самыми неожиданными путями – через соцсети, религиозные организации, лидеров мнений вроде миллиардера Питера Тиля, представителей научного сообщества.
Как указал эксперт, у многих тревогу вызывают риторика и действия Трампа, который, в частности, анонсировал возобновление ядерных испытаний, стремясь показать силу в отношениях с Россией, и спровоцировал Москву на заявление о симметричных мерах.
«Своим последним заявлением по поводу ядерных испытаний Дональд Трамп обостряет давний раскол – между безопасностью, основанной на праве, и безопасностью, основанной на доминировании», – указал Юрий Жданов.
Специалист отметил, что многих пугает возможность использования ИИ в ядерной сфере – в том числе, при принятии решений о нанесении ударов:
«В последние годы американское военное руководство все больше интересуется интеграцией ИИ в систему управления ядерными силами США, учитывая его способность быстро обрабатывать огромные объемы данных и выявлять закономерности. Однако официальные лица твердо убеждены, что компьютерной системе никогда не будет предоставлен контроль над решением о фактическом запуске ядерного оружия. <…> Однако некоторые ученые и бывшие военные утверждают, что настоящая проблема не в том, что ИИ, вышедший из-под контроля, запустит ядерное оружие. Их беспокоит то, что люди все больше полагаются на ИИ в принятии решений. Есть опасения, что ИИ будет предоставлять ненадежные данные и подталкивать человеческие решения к катастрофическим последствиям».
Роковые ошибки
Как напомнил Юрий Жданов, еще в эпоху до ИИ из-за некорректной работы технологий вполне могла начаться ядерная война. Так, например, в 1979 году американскому советнику по нацбезопасности Збигневу Бжезинскому сообщили среди ночи о 220 ракетах, выпущенных у Орегона с советских субмарин. Тревога оказалась ложной, и сигнал поступил из-за неисправно работавшего чипа в системе связи. В 1983 году советский подполковник Станислав Петров фактически предотвратил ядерную войну, увидев уведомление о запуске американской ракеты. Он не стал сразу докладывать о случившемся начальству и предпочел разобраться в ситуации. В итоге выяснилось, что система по ошибке приняла за запуск ракеты солнечный свет, отражающийся от облаков.
Эксперт обратил внимание, что китайские власти в последнее время резко усилили борьбу с коррупцией. И делают они это с использованием методов, которые на Западе принято считать не совсем демократичными.
Однако, по оценке эксперта, ИИ постепенно интегрируется в ядерные вооружения, поскольку руководители атомной отрасли заинтересованы в автоматизации отдельных этапов процесса, поскольку это позволит как минимум выиграть время:
«Но для тех, кто обеспокоен потенциальным экзистенциальным риском для будущего человечества как со стороны ИИ, так и ядерного оружия, идея объединения этих двух рисков в один – кошмар».
Опасное сочетание
По словам Юрия Жданова, современные модели ИИ могут ошибаться, хотя делают это редко. Они более совершенны, чем первые нейросети, но не безупречны. К тому же, модели ИИ могут становиться объектами кибератак или манипуляций, например, с использованием дезинформации:
«И даже если вся собранная системой информация достоверна, есть основания сомневаться, что системы ИИ будут рекомендовать правильные варианты действий. Известно, что модели ИИ полезны ровно настолько, насколько полезны данные, которые в них поступают, и их эффективность повышается с увеличением объема данных для обработки».
По словам эксперта, теперь командованию сил ПРО во всех странах придется иметь в виду, что даже разработчики нейросетей не всегда могут понять, по какой причине модели генерируют те или иные ответы. Более того, некоторые специалисты подозревают у нейросетей способность целенаправленно вводить в заблуждение людей, полагающихся на нее при принятии решений. И нет понимания, как человек, который должен контролировать решение нейросети об использовании ядерного оружия, будет это делать. Попытается ли он проанализировать, почему ИИ-модель выбрала именно такой вариант, или просто положится на нее и вслепую станет следовать ее рекомендациям?
«Человек, принимающий быстрое решение о ядерном ударе, может ошибиться, опираясь на неверные данные, полученные от ИИ».
Как рассказал Жданов, экс-советник советник Стратегического командования вооруженных сил США Адам Лоутер предложил создать аналог российской системы «Периметр», которую также называют «Мертвая рука». В случае, если датчики выявляют ядерную атаку, а руководство не может самостоятельно отдавать приказы, система отдаст операторам приказ о запуске оставшегося ядерного арсенала страны. Идея заключалась в сохранении сдерживания даже в случае первого удара, который уничтожит всю цепочку командования. Согласно мнению Лоутера, ИИ, скорее всего, ошибется с меньшей вероятностью, чем человек, оказавшийся в стрессовой ситуации и перед необходимостью быстро принимать крайне важное решение. Но никакой гарантии нет – точно так же ИИ может и ощибиться. Поэтому, как констатировал Жданов, американцев, панически ожидающих конца света, можно понять.
Ранее Юрий Жданов оценил планы Пентагона реформировать сферу кибероружия.




