AIの機能そのものを規制することの難しさ

 しかし、AIの機能そのものを規制することは、技術的にも制度的にも容易ではありませんし、むしろ悪い帰結をもたらす可能性もあります。

 近年のAIの急速な発展を支えているディープラーニング(深層学習)は、データの学習を通じてAIが賢くなっていくことを前提としています。「AIを賢くしない」ということは、「良いデータを与えない」ということであり、そのことがむしろ「悪いAI」を作ってしまう可能性もあります。すなわち、「AIを人間を脅かさない程度に賢くする」ことは、簡単ではありません。

 また、「より良いAIを作りたい」というのは、科学者や技術者の本質的な欲求です。さらに、モノと違ってコンセプトは容易に国境を超えます。したがって、「AIの機能そのものを規制する」ことを考えるならば、世界中の国々が参加しなければ実効的になりません(さもないと、優秀なAI技術者は規制の緩い国に行ってしまうでしょう)。

 ダイナマイトが兵器として使われたのは、ダイナマイトのせいではなく、人間のせいであり、だからこそ、ノーベルは科学の発展と人類への貢献を祈念してノーベル賞を作ったわけです。これは、AIでも同じでしょう。科学技術そのものを止めるのではなく、その「悪い使い方」に歯止めをかけるのが、人間の知恵の見せ所だと思います。

世界は「賢さ」を必要としている

 人々が今直面しているチャレンジは、まだまだ「賢い知能」を求めています。

 COVID-19のような新たな感染症の脅威は、その典型です。今回の光明は、有効なワクチンが過去に例を見ない速さで開発されたことです。その大きな要因の一つも、AIの進歩でした。