東京大学国際高等研究所カブリ数物連携宇宙研究機構教授の横山広美氏(撮影:酒井俊春)
写真提供:Shutterstock

 生成AIの急速な発展は、私たちに大きな可能性をもたらす一方で、さまざまな懸念も生じる。特に、AIが社会に浸透するスピードに比べ、ガバナンスが追いつかない状況が生まれているのだ。マイナス影響への対策は後手に回っている状況で、企業はAIをどのように活用し、リスクを管理すればよいのか。科学技術社会論の視点から見た生成AIによるリスクとその対処法について、東京大学 国際高等研究所 カブリ数物連携宇宙研究機構 副機構長の横山広美教授に聞いた。

誰でもたやすく触れられる最先端技術がもたらす危険性

――科学技術社会論の観点から生成AIはどのような特徴と問題があるのでしょうか。

横山 広美/東京大学国際高等研究所カブリ数物連携宇宙研究機構教授

東京大学国際高等研究所カブリ数物連携宇宙研究機構教授。東京大学学際情報学府兼担。東京理科大学大学院(高エネルギー加速器研究機構連携大学院)満期終了退学。高エネルギー素粒子物理実験で博士(理学)を取得の後、専門を科学技術社会論にし、総合研究大学院大学、東京大学大学院理学系研究科准教授を経て現職。AI、気候工学等の先端技術の倫理的ガバナンス、科学とジェンダー、大型科学の社会学、科学者の信頼問題などに取り組んでいる。

横山広美(以下敬称略) 生成AIの最大の特徴は、多目的に世界中で同時に開発が進められている点です。これまでの新技術、例えばゲノム編集も、キットを活用すれば学生でも自宅でできるものでしたが、実際その多くは大学や研究所で使われていて、主に大学や研究機関など比較的、管理が行き届く環境で使われてきたといってもよいでしょう。

 ところが生成AIは、米OpenAI社などが一気にサービスを展開したことで、世界中から誰でもアクセスでき、子どもたちですら容易に触れられる状況です。誰にでも容易に活用できる状況にある、というのがAIの大きな特徴です。

 さらに開発も、競争の反面、オープンにシェアされる部分もあり、激しく進んでいます。科学技術自体がどんどん進展と変化を遂げている最中にあり、問題や課題も流動的です。これは通常の科学技術と比較して、圧倒的なスピードで進んでいるからこそ問題になる特徴といえるでしょう。

 ビジネスの側面を考えればスピード感は重要ですが、ガバナンスの側面では先を見越し、余裕を持って制御しておくことが重要です。しかし現在はその余裕がないまま拡散し、そのためにさまざまな問題が生じている状況です。日本では、児童虐待のサポート判断にAIが使われ、結果的に対象のお子さんが亡くなったという事象もありました。ウェブ上に公開されているあらゆる文書からAIが学んでいますが、こうした行為が今後の皆さんのビジネスや権利にどのような影響を与えるのか、懸念されます。

驚異的なスピードで進化する生成AIを人間が使いこなせるのか

――横山教授が危惧している点としてどのようなものが挙げられますか。

横山 科学技術へのガバナンスとして生成AIについて危惧しているのは、ガバナンスが追いつかないスピードで広がることで制御が効かなくなり、人間社会が使いこなせなくなる点です。少し前に、ある人工知能研究の研究者が、AIを人間が管理するのではなく「AIが人間を管理するようになる」可能性を最大の懸念として挙げ、反響を呼んでいました。

 生成AIの登場により、従来人間がやってきた仕事を生成AIが驚異的なスピードでこなすようになりました。AIが仕事を奪い失業が広がるのではないかという懸念は強いですし、人間が人間らしく尊厳をもって生きていくのに、AIが脅威になる可能性もあります。

 作り出して良いものかを問うべき科学技術は、確かにあります。例えば核兵器です。未来にわたってこれほど脅威となった科学技術は他にないでしょう。AIの進展は、そうしたレベルでも懸念されています。特に先端の科学技術は必ず軍事と結びつきますし、積極的に活用する国が多いことは事実です。

 すでに、AIによる顔認証とドローン兵器を組み合わせ、ターゲットを自動で攻撃するという軍事利用は始まっています。アメリカでは、AIを用いた兵器利用は約半数の人に指示されています。兵士が負傷するよりも良い、というのがその理由です。また、核兵器の使用権限こそ大統領に委ねられていますが、そこに至るあらゆる過程でAIが活用されており、こうした軍事利用の加速も懸念される問題です。

 こうした「恐怖」については多くの議論があります。一方で日本は、科学技術の浸透が遅い国です。少し前までFAXが使われていたことは海外から見れば驚きです。DXの進みも遅れています。基本的には私たちは前向きに新しい技術を取り入れる努力をして、より便利な社会を目指していくべきでしょう。