「G7群馬高崎デジタル・技術大臣会合・閣僚宣言」は、本質的にガバナンスの問題である、生成AI以降に特有のこうしたシリアスな状況に対する対策を一切述べていない。

 素人の作文かと見まごうばかりです。

 実は、私たち東京大学のAI倫理グループがこうした問題に取り組むようになったのは2014~15年頃からで、すでに8~9年の積み重ねがあります。

 当初は「ELSI問題」と呼ばれていました。

 ELSIとは「Ethical, Legal and Social Issues(倫理的、法的、社会的案件」のことです。こうした問題化しうる状況に対策を立てる必要がある。これは間違いありません。

 続いて2015年以降、この種の問題はAIというより「高度自律システム」、特に「自動運転車」の技術開発倫理指針として検討されるようになります。

 背景の一つとして、2010年代欧州の経済を牽引したドイツのアンゲラ・メルケル政権による「インダストリー4.0政策」で、自動運転技術の確立を100年前の「建艦競争」同様、イノベーションの主軸に据えた経緯がありました。

 100年前の建艦競争とは、20世紀初頭の帝国主義列強は、すべてのイノベーションの集約目的として「ドレッドノート」などの巨大戦艦の建設をシステム・インテグレーションの中心に据えたことを指します。

 周知のように、そうした「時代」は2010年代と共に終わりを告げ「生成AI以降」の新しい状況が突きつけられている。

 そしてそれに対して、ほとんどまともな「固有の対策」を立てられていない。

 ヒントン博士がグーグルを去って自由に発言したいとする大きな動機も、こうした「現実的なAI倫理の諸問題」にあることを本人が繰り返し強調しています。

 ジョージ・オーウェルの近未来小説「1984」が描くような、人類が機械に支配される監視社会の到来など、SF的なAIディストピアを心配する必要は、およそまだありません。

 むしろ、機械仕掛けのフェイク情報が選挙戦を左右し、その結果について誰も法的責任を問えないアノミー、無秩序状態が到来するなど、すでにドナルド・トランプ氏が勝ってしまった大統領選や、ブレグジットでも垣間見えてしまった。

 リアルなリスクが恐ろしい。