Пентагон пересмотрел правила применения боевых роботов и автономных вооружений

МОСКВА, 6 февраля. /СТАТУС-АРМС/. Министерство обороны США сформулировало новые правила применения автономных технических средств и вооружений, также известных как боевые роботы. Соответствующая директива была издана на фоне публичных высказываний со стороны ряда организаций, призывавших запретить оружие и технику с управлением искусственным интеллектом (ИИ) из-за того, что это может быть небезопасно и негуманно.
Как пояснил портал «Дифенс Пост» (The Defense Post) со ссылкой на заместителя министра обороны США Кэтлин Хикс, Пентагон стремится к тому, чтобы применение автономных платформ и вооружений на их базе было разумным и в полном соответствии с законом. В соответствии с новой директивой «Автономность в системах вооружений» (Autonomy in Weapon Systems) от американских военных требуется минимизировать «вероятность и последствия от сбоев» в работе автономных и полуавтономных боевых средств в целях предотвращения непреднамеренных боестолкновений.
При этом работающие на принципах ИИ платформы все же не будут полностью запрещены в вооруженных силах. Их продолжат применять, однако для этого они должны полностью соответствовать положениям этического кодекса ИИ AIEP (AI Ethical Principles), а также стратегии и пути реализации концепции ответственного применения ИИ в военных целях RAIS&IP (Responsible AI Strategy and Implementation Pathway). Оба документа были разработаны Пентагоном.
«Учитывая впечатляющие технологические достижения, которые можно увидеть повсеместно, новая редакция нашей директивы „Автономность в системах вооружений“ поможет нам оставаться мировым лидером не только в сфере разработки и применении новых систем, но и в вопросах безопасности [такого применения]», — сказала Хикс.
В новых требованиях, приведенных в документе, отмечено то, что разрабатываемые в военных целях автономные и интеллектуальные платформы должны иметь определенный уровень несвободы в своих действиях, тем самым предоставляя командирам и операторам возможность принимать окончательное решение в вопросах их применения.
Также такие платформы должны иметь подходящие тактико-технические характеристики, определенный спектр возможностей, быть надежными и эффективными в условиях, максимально приближенных к боевым. Помимо этого, Пентагон желает, чтобы все военнослужащие, которым по роду своей деятельности приходится или придется работать с боевыми роботами, применяли их в соответствии с законами войны, правилами безопасного обращения с оружием и соответствующими нормами ведения боевых действий.
По данным «Дифенс Пост», с 2013 года свою позицию относительно применения вооружений с ИИ уже выразили по меньшей мере 100 стран мира. Из них как минимум 31 открыто выступила за запрет таких технологий. В их числе Австрия, Бразилия, Китай (лишь относительно применения, но не разработок в этой области), Египет, Ирак, Пакистан и Уганда.
В свою очередь, государства с развитыми армиями — такие, как Израиль, Россия и США — заявили, что пересматривать нормы международного права на этот счет пока рано. По мнению представителей международных организаций, в частности движения «Хьюман Райтс Уотч» (Human Rights Watch), откладывать эту тему не стоит. В частности старший эксперт организации по вопросам вооружений Бонни Дочерти считает, что, «полагаясь на компьютерные алгоритмы в борьбе с людьми, мы дегуманизируем войну и разрушаем нашу человечность».