グーグルを去ったAI開発の第一人者、ジェフリー・ヒントン博士(2017年12月7日撮影、写真:ロイター/アフロ)

 去る5月1日、長年にわたってグーグルのA I開発を指導してきたコンピューター科学者、ジェフリー・ヒントン博士が、AIのリスクについて自由に発言できるようにと、同社シニア・エンジニアリング・フェローの職位を離れたこと(cnn.co.jp)は、すでに広く報じられている通りです。

 しかし、ヒントン博士の思惑を超えて、関連の議論、特に「人類にとってのAIの脅威」といった方向で、様々な脚色を施した報道が目出ちます。

 例えば、ヒントン博士のグーグル離任に少し先だって「Future of life Institute」なる団体名で表明された「AIのリスク」を煽る「公開書簡」はひどいものでした。

「GPT-4より強力なAI システムの開発者は、直ちに、少なくとも6か月にわたってAI学習を『ポーズ』(停止)するように求め」ると称する内容は、見る人が見ればお話にもならない茶番に過ぎません。

 利害関係者の情報濫用で、全く感心しません。

 翻って、各国政府の反応はどうかと見るなら、例えばヒントン博士がグーグルを去る前日に公開された「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」。

「DFFTの推進」「責任あるAIとAIガバナンスの推進」など、絵に描いた餅が並びます。

 しかし、関係者の大半が機械学習も人工知能のリスクも何も理解しない官僚や政治家だけで作った作文であることが、ほぼバレバレの内容です。

 そういう床屋談義でなく「AIが人類社会に対して持つリスク」の本当のところはどうなのか?

 利害から中立なAI倫理の観点から、簡潔に交通整理してみましょう。