実証実験でAIが「虚構の道路状況」を生成?!

4. 自動運転と生成AIの融合による「データ暴走事故」

 ここ数年、テスラや日本の自動車メーカー各社が推し進めてきた自動運転技術だが、2025年にはいよいよ「レベル4以上」の実用化に近づく。

 完全自動運転が社会インフラの一部として認められるためには、リアルタイムで膨大なデータを分析し、適切な判断を下すシステムが不可欠だ。そこで鍵を握るのが、生成AIを組み込んだ「環境予測モデル」である。

 従来のルールベースや機械学習だけでは対応しきれない複雑な状況を想定し、シミュレーションから最適解を瞬時に生成する技術が大きな期待を集めている。

 ところが、この技術が抱える潜在的リスクを現実に示す「データ暴走事故」が起こった。ある物流企業が自動運転配送トラックの実証実験を行っていた際、GPS信号の一時的な乱れとセンサー誤作動が重なり、AIが「虚構の道路状況」を生成し始めてしまったのだ。

 複雑な交差点で“そこには存在しない”信号や車両をAIが仮定し、それに合わせて制御系統が反応した結果、車両が誤ったルートへ進入しそうになった。幸いドライバーが非常停止ボタンを押したことで大事故にはつながらなかったが、この騒動で「AIが生み出す幻のデータにシステム全体が翻弄される」危険性が浮き彫りになった。

 この事件を受け、自動車メーカーやIT企業は「生成AIを自動運転に組み込む際の安全基準」を再構築する必要を痛感することに。さらに、各国の交通当局は、生成AIが出力した推論結果について「監査ログを必ず保存し、人間が追跡可能な形で検証できるようにする」ことを義務づけようという議論も始めた。

 2025年におけるこの一連の動きは、「AIがただ正確な情報をくれるだけではなく、誤情報を“それらしく”提示してしまうリスク」への強い警鐘となった。