ウクライナ戦争は殺人ロボットへの世界的な動きを加速させている

ウクライナ戦争は殺人ロボットへの世界的な動きを加速させている
写真:リタ・ダニエル上等兵/米海兵隊
写真:リタ・ダニエル上等兵/米海兵隊

米軍は、国防総省の指令の改訂版で確認されたように、自律型兵器の開発と使用への取り組みを強化している。2023年1月25日に発表されたこの改訂版は、人工知能(AI)を搭載した自律型兵器に焦点を当てた10年ぶりの改訂版である。これは、NATOが2022年10月13日に発表した関連実施計画に続くもので、NATOは「キラーロボット」と呼ばれるロボットにおける同盟国の「技術的優位性」を維持することを目指している。

両発表は、ウクライナとナゴルノ・カラバフにおける最近の戦闘作戦から世界中の軍隊が得た重要な教訓を反映している。つまり、兵器化された人工知能こそが戦争の未来であるということだ。

「ウクライナにおける徘徊型兵器の軍事的価値を司令官たちが見出していることは承知しています」と、兵器による被害軽減に注力する人道支援団体Article 36のディレクター、リチャード・モイズ氏はインタビューで語った。爆弾とドローンを合わせたようなこれらの兵器は、標的を待ちながら長時間ホバリングすることができる。現時点では、このような半自律型ミサイルは、主要な決定において人間がかなりの制御を加えて運用されているとモイズ氏は述べた。

戦争の圧力

しかし、ウクライナでの犠牲者が増えるにつれ、人間の監視を必要とせず、自ら標的を選択し、追跡し、攻撃できるロボット、つまり完全自律型兵器によって戦場で決定的な優位性を獲得することへのプレッシャーも高まっている。

今月、ロシアの大手メーカーは、ウクライナの既存部隊の増強を目的として、無人地上車両「マーカー」偵察ロボットの新たな戦闘バージョンを開発する計画を発表した。完全自律型ドローンは既に、ウクライナのエネルギー施設を他のドローンから防衛するために使用されている。半自律型ドローン「スイッチブレード」を製造する米国の防衛関連企業CEO、ワヒド・ナワビ氏は、これらの兵器を完全自律型に改造する技術は既に実現可能だと述べた。

「アンドロイド・テクノロジー」と「先端研究財団」(FPI)は、ロシアの宇宙港(ヴォストチヌイ宇宙基地)で巡回任務を遂行するマーカーUGVの試験を実施しています。#ugv #無人 #無人 #ロボット工学 #ロシア連邦 #戦闘 #巡回 #警備 #自律 #自律走行車 pic.twitter.com/jbIX7GQPzU

— メラニー・ロベリー(@MelanieRovery)2021年10月8日

ウクライナのデジタル変革大臣ミハイロ・フェドロフ氏は、完全自律型兵器は戦争の「論理的かつ避けられない次のステップ」であると主張しており、兵士らは今後6カ月以内に戦場でそれらを目にするかもしれないと最近述べた。

完全自律型兵器システムの支持者は、この技術によって兵士を戦場から遠ざけ、危険から守ることができると主張する。また、超人的なスピードで軍事的意思決定が可能になり、防衛能力が飛躍的に向上する。

現在、標的を追跡し、自爆する徘徊型兵器のような半自律型兵器は、「人間による介入」を必要とします。これらの兵器は行動を推奨することはできますが、実際に行動を開始するのはオペレーターです。

対照的に、現在ウクライナに配備されているいわゆる「ドローンハンター」のような完全自律型ドローンは、オペレーターの介入を必要とせず、人間が操作する兵器システムよりも速く、昼夜を問わず接近する無人航空機を追跡し無力化することができる。

タイムアウトを要求する

「キラーロボット阻止キャンペーン」のような批評家たちは、10年以上にわたり自律型兵器システムの研究開発の禁止を訴えてきました。彼らは、自律型兵器システムが車両、インフラ、その他の兵器だけでなく、人間を標的とするように特別に設計される未来を予測しています。彼らは、戦時における生死に関わる決定は人間の手に委ねられるべきだと主張しています。それをアルゴリズムに委ねることは、究極のデジタル非人間化に等しいのです。

キラーロボット阻止キャンペーンは、ヒューマン・ライツ・ウォッチと共同で、自律型兵器システムには、民間人と正当な軍事目標を区別するために必要な人間の判断力が欠けていると主張しています。また、自律型兵器システムは、認識されるリスクを軽減することで戦争への敷居を下げ、戦場での出来事に対する人間の意味ある制御を損ないます。

写真: 米陸軍 AMRDEC 広報部
写真: 米陸軍 AMRDEC 広報部

これらの組織は、米国、ロシア、中国、韓国、そして欧州連合(EU)など、自律型兵器システムに最も多額の投資を行っている軍隊が、世界を莫大な費用と不安定化をもたらす新たな軍拡競争へと導いていると主張している。その結果、この危険な新技術がテロリストや政府の管理下にない他者の手に渡ってしまう可能性もある。

国防総省の改訂された指令は、いくつかの主要な懸念事項に対処しようと試みている。この指令では、米国は「武力行使に関して適切なレベルの人間による判断」を備えた自律型兵器システムを使用する、と宣言している。ヒューマン・ライツ・ウォッチは声明を発表し、この新指令は「適切なレベル」という言葉の意味を明確にしておらず、誰がそれを判断すべきかについてのガイドラインも確立していないと述べた。

しかし、国防・国際関係シンクタンクである戦略国際問題研究所(CSIS)の専門家、グレゴリー・アレン氏は、この文言は批判派が求める「意味のある人間による制御」よりも低い基準を定めていると主張する。国防総省の文言は、哨戒機など特定のケースにおいては、適切とみなされる人間による制御のレベルが「ほとんど、あるいは全くない」可能性を示唆しているとアレン氏は指摘する。

改訂された指令には、自律型兵器システムの倫理的使用を約束する文言も含まれており、具体的には、当該技術の開発と運用を監視するシステムを構築し、兵器が既存の国際戦争法に従って使用されることを重視する。しかし、第36条のモイズ氏は、現在の国際法は兵器の自律性の概念を理解するための適切な枠組みを提供しておらず、ましてや規制する枠組みはないと指摘した。

例えば、現在の法的枠組みでは、指揮官が使用するシステムの作動条件を理解する責任があることや、システムの作動範囲と時間を制限しなければならないことが明確にされていない。「危険なのは、私たちが今いる場所と、受け入れがたいものを受け入れてしまった場所との間に明確な境界線がないことだ」とモイーズ氏は述べた。

不可能なバランス?

国防総省の今回の更新は、自律型兵器システムの配備と国際人道法の遵守への同時コミットメントを示している。米国がこれらのコミットメントをどのように両立させるのか、そしてそもそもそのような両立が可能なのかは、まだ分からない。

国際人道法の守護者である赤十字国際委員会は、指揮官やオペレーターの法的義務は「機械、アルゴリズム、あるいは兵器システムに移譲することはできない」と主張している。現在、民間人を保護し、武力行使が軍事目標に見合ったものであることを確認することで戦闘による被害を最小限に抑える責任は、人間にある。

人工知能兵器が戦場に投入され、不必要な民間人の死が起こった場合、誰が責任を負わなければならないのか?この非常に重要な問いに明確な答えはありません。

ジェームズ・ドーズはマカレスター大学の英語学教授です。この記事はThe Conversationからクリエイティブ・コモンズのライセンスに基づき転載されています。元の記事はこちらです。

Tagged: