どんなに優秀な戦闘機でも有人では無人機に勝てなくなっている(写真は米空軍のF-15E戦闘機、2023年2月18日撮影、米空軍のサイトより)

 2023年12月22日、国連総会は、自律型致死兵器システム(Lethal Autonomous Weapon Systems:LAWS=ローズ)への対応が急務だとする決議案を採択した。

 LAWSは、人間の関与なしに自律的に攻撃目標を設定することができ、致死性を有する完全自律型兵器を指すと言われているものの、国際的な定義は定まっていない。

 LAWSに関しては様々な懸念がある。

①そもそもロボットに人命を奪う判断をさせていいのか、という倫理的な問題。

②事故等の場合の責任の所在が不明である。

➂自軍の兵士の損失が減ることで「戦争へのハードル」が低くなる。

④機械である以上、故障による誤作動も起こり得る。

⑤さらに、人工知能(AI)が人間に「反乱」を起こす事態を警告する科学者もいる。

 そして、現在、LAWSの開発や所有、使用を規制または禁止する国際的なルールがない。

 国連総会での決議案はオーストリアが提出し、採決では倫理上の問題を懸念する日米など先進7か国(G7)のほか、紛争拡大を懸念するアフリカや中南米、東南アジアなどの多くの発展途上国を含む152か国が賛成した。

 AIの軍事利用に積極的で規制に反対のロシア、インド、ベラルーシ、マリの4か国が反対し、AIの軍事利用に積極的で規制に慎重な中国やイスラエル、イラン、トルコ、シリアなど11か国が棄権した。

 国連総会でのLAWS関連決議は初めてである。

 決議は、倫理的問題や人間の役割について各国の見解を取りまとめ、2024年9月に始まる次期会期に報告書として提出するようアントニオ・グテーレス国連事務総長に要請した。

 さて、2019年8月21日、特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)枠内のLAWSに関する政府専門家会合(Group of Governmental Experts:GGE)において、LAWSの規制の指針を盛り込んだ「報告書」が採択された。同報告書には、

①すべての兵器システムには国際人道法が適用されること。

②兵器の使用には人間が責任を負うこと。

➂ハッキングのリスクやテロ集団の手にわたるリスクを考慮することなど11項目が盛り込まれた。

 2019年11月、CCW締約国は、11項目から成るLAWSの規制に関する指針について合意した。11項目の概要は後述する。

 このような規制に関する初めての指針がまとまったことは、重要な成果であったが、LAWS規制の議論のきっかけをつくった国際人権団体などからは、失望の声が上がった。

 それは、合意された指針には法的拘束力がない、いわば「努力目標」の域を出ず、ルールを自国の都合のよいように解釈する国が現れるのではとの懸念があったからである。

 その後、LAWSの開発・配備を規制しようとするいわゆる「LAWS議論」は、規制の必要性では一致しながら、各国の思惑や事情もあり、具体的なルールを決められずなかなか進展しなかった。

 その間にAIを搭載した完全自律型兵器の開発および使用は拡大していった。

 そのような中、2023年2月15日、米国が「AIと自律性の責任ある軍事利用に関する政治宣言」に係るイニシアチブを公表した。

 筆者は、米国の狙いは、LAWS規制が進まない中で、AIの軍事利用の国際基準作成について米国が指導権を握ることであると見ている。

 以下、初めにLAWSの定義について述べ、次にCCWの枠組におけるLAWS議論の変遷について述べ、次にAI関連兵器を巡る米国の動向について述べ、最後に我が国のLAWS対策について述べる。