人類は根本的な問題に直面している。戦争で機械が生死の判断を下すのを許すべきか? それは合法的なのか? 正しいことなのか?
残り1361文字
本書は、この問いを中心に置きながら、急速に進歩を続けている自律型兵器に関する技術的・法的・倫理的観点からの包括的な議論をすすめ、今後自律型兵器が世界中に蔓延していった時に何が起こるのかといったまだみぬ課題についても検討していく、一般読者向けのノンフィクションとしては今後10年にわたって基本書となりえる一冊である。550ページを超える分厚い本なのだが「こんなことが起こり得るのか!」「こんなことがもうできるのか!」「こんなことまで想定しているのか!」といろいろな角度から驚き続けることのできる素晴らしい傑作だ。
画像認識技術に致命的な欠点
群体としての行動をする自律型兵器(相互干渉しない離着陸、飛行、一点に集中しない攻撃アルゴリズムなど)が空を飛ぶもの、水中で稼働するものの二つが実験段階にあるほか、アメリカの国防研究開発部門であるDARPAでは、CODEと呼ばれる、こちらも複数体で行動し、場合によっては攻撃まで兵器の側で判断できる(余地を残している)自律型兵器を開発している。最初の方で触れたイスラエルのハーピーは種類としては滞空弾薬と呼ばれるもので、2.5時間ほどの捜索可能時間があり、与えられた範囲内を巡回しながら敵レーダーを探し、見つけた場合無許可で破壊する。
自律型兵器の必要性が増している背景にはいくつかの背景があるが、大きな理由のひとつは兵器のネットワーク化が増加するにつれて、電子攻撃の勃興と衝突するようになったということがあげられる。
軍が通信とターゲット感知を電磁スペクトルに依存すると、その領域でのジャミングやスプーフィングなどの電子戦に巻き込まれることは今や必ず想定しなければいけない事態だ。ジャミングに強い通信手段も存在するが、交信範囲と帯域幅が限られる。そこで、通信せずとも攻撃の実行判断までできる自律性を高めた兵器が必要とされる。もうひとつの(自律型兵器の必要性が増す)理由は、兵器に搭載できる知能のレベルがましていることだ。いくらなんでも高確率でターゲットを間違えるアルゴリズムには攻撃の判断を任せられないが、状況は変わりつつある。
おもしろいというか恐ろしいのが、今後自律型兵器について考慮しないといけないこととして、画像認識技術の致命的な欠点があることだ。ディープラーニングによって画像認識の精度は格段に向上したが、これは画像にノイズをかぶせて誤認させるよう意図する敵対的画像サンプルの攻撃に致命的に弱い。ニューラルネットワークは独自のアルゴリズムに従って画像を分類するが、そのせいで人間の目にとっては意味不明な抽象的な形をヒトデなどと誤認することがあるのだ。
