殺人ロボットに法的・道徳的・倫理的な判断は期待できない=写真はイメージ(写真:Mykola Holyutyak/Shutterstock)

究極のAI兵器が出現間近と言われています。AI(人工知能)が自ら攻撃対象を選び、攻撃するかどうかもAI自身が判断する兵器で、対象の選定から攻撃までのプロセスに人間の意志が関与することはありません。そんな「自律型致死兵器システム(LAWS)」をどう扱えばいいのでしょうか。国連では、規制に関する国際会議も始まっています。戦争と社会のありようを根底から変えかねない「LAWS」をやさしく解説します。

フロントラインプレス

人類を滅亡させる可能性

「人類を滅亡に至らせるような兵器も生まれている。(兵器にも利用可能な)AIの安全保障に関し、そのリスク軽減に向けた新たな国際機関の設置も検討すべきだ」

 国連のグテレス事務総長が強い危機感を表明したのは、2023年7月のことでした。“分単位”と言っても過言ではない速度でAIが高度化するなか、兵器分野への応用が進み、人類が兵器を制御できなくなる恐れに言及したのです。

【関連記事】
イスラエルを守る「鉄の天井」アイアン・ドーム、脅威の命中率95%のミサイル迎撃システムに世界が注目する理由

 グテレス氏は加盟国への勧告を提言書の形でまとめ、AIを搭載した兵器の開発・使用の禁止や、国際社会の安全保障が脅かされないように新たな国際機関を開設することなどが可能かどうかを検討するよう呼びかけました。これを受けて、LAWS規制に関する協議が本格的に始まっています。

 LAWS(ローズ)という言葉にはなじみがなくても、「殺人ロボット」「AI兵器」といった言葉は多くの人が耳にしたことがあるでしょう。

 では、LAWSとはどのような意味でしょうか。