あるいは「自動運転車」が事故を起こす状態を軍事に拡張して考えるなら、AIが誘導して確実にターゲットにヒットする「自動殺人機」を作ること自体は全く簡単で、すでに多くが実装されているわけです。

 かつ、「マシンの行動」に対してどの国の何の法規も有効な規制の条項をもっていないアナーキーな状況を、ヒントン博士はもとより技術を過不足なく直視する専門人、特に私たちAI倫理関係者は、現実的具体的に懸念しています。

 また、ヒントン博士がほとんど顧慮せず、ほかの専門人が憂慮する要素もたくさんあります。

 例えば、ニューラルネットワークの基本演算「バックプロパゲーション」を確立した甘利俊一先生は、現在のAIが消費する莫大なエネルギーの無駄遣いを心配しておられます。

 人類はいまだ、ヒト脳の機序のごく一部しか理解していない。

 でもそれをバカの一つ覚えのように使い倒して、莫大なエネルギーを消費しながら、下手な人間の真似事がまだ十分にできないというのが、今日の生成AIの実際のところです。

 同じことを人間の脳は、おにぎり1個程度の消費カロリーでさっさと計算してしまう。

 これについてヒントン博士は、甘利さんと正反対の見方をしているようです。

 本当に数少ない計算原理だけで、驚くほど広範な「人間固有の論理演算」が可能であることを高く評価しています。そこで消費される莫大なエネルギーなどは、あまり問題にすることなく・・・。

 いまのAIに可能なことは何なのか?

 向こう5年~10年で実現される範囲はどの程度か? 

 また逆に、向こう50年100年経っても、まず実現不可能と分かっているのは、どのような領域か? 

 そうした領域にこそ、人間は智力を集中するべきではないか?

 こうした人材育成に向けてこの議論は続きます。その端的な例として「遊び」を挙げることが可能です。

 人間はAIで遊ぶことができますが、AIは人間をおもちゃにすることなどできません。

 あるとすれば、AIを濫用する人間が他の人を篭絡したり、もてあそんだり陥れたりする犯罪があるだけです。

 そうした事態に、正確な科学的理解に即した正義のメスを入れること。そうしたことが求められているわけです。

 続く議論は「遊ぶ東京大学の逆襲」として、続稿で詳しく取り上げたいと思います。