アルゴリズムは効果的な兵士を作るが・・・

 第一に、自社のAI技術がAI兵器に転用される危険性について配慮することだ。

 もしAI兵器に転用されたことが明らかになると、SDGs(国連の定める持続可能な開発目標)にも反する行為として、投資家や消費者から厳しい視線を浴びることになるだろう。

 土木工事を目的として開発されたダイナマイトが軍事転用されたように、先端技術は常に軍事転用されうる。それがテロリストやテロ支援国家に活用されたら・・・。これまでの技術流出防止以上の対策が求められるだろう。

 第二に、AI兵器の軍拡競争を他山の石として、自社のAIの暴走についても目を光らせることだ。

 AIがコントロール不能になる状態は兵器に限らない。自社の生産や販売、管理部門などが暴走する危険は常にありうる。

 AI兵器の危険を2015年に公開書簡の形で世界に警告を鳴らしたのは、ケンブリッジ大学の宇宙物理学者ホーキングであった。数年以内に実用化されるAI兵器を放置すると果てしない軍拡競争に陥り、火薬、核兵器に続く、兵器の大きな革命になると警告したのだ。

 ホーキング氏の予想通りAI兵器は実用化され、人類は軍拡競争の入り口に立っている。同氏が泉下で嘆いている姿が目に浮かぶ。

 Economist(2021年7月3日)は以下のような指摘をしている。

「Algorithms may make proficient soldiers but poor generals(アルゴリズムは効果的な兵士を作るが、駄目な将校を作る)」
 
 人類は今大きな分岐点に立っていると言って過言ではない。人智を結集して駄目な将校の出現を防止すべきだろう。