ウェイモとテスラで対応に大きな違い

 人間であれば、警察官の手信号を探したり、周囲の流れを見て判断を変えたりします。

 しかし、AIはあらかじめ与えられたルールを超えて即興的に振る舞うことができません。

 ウェイモの自動運転は、信号機や地図、センサー情報を重ね合わせて判断する設計です。この構造は、通常時には極めて高い安全性を発揮します。

 一方で、都市インフラが想定外の形で止まった場合、AIは最も安全になるような判断をします。止まることは、動くことより常にリスクが低いからです。

 ここには、工学的な「フェイルセーフ」の思想が徹底されています。

ウェイモ(フェイルセーフ):異常時に「停止」を選択し、絶対的な安全を確保する設計。

テスラ(Tesla)(フェイルソフト):機能が制限されても、人間のように「継続」を目指す設計。

 異常事態において、機能を維持しながら運転を継続しようとする「フェイルソフト」な考え方もありますが、ウェイモのような公共交通を担うプレーヤーにとっては、予測不能な挙動を排除することが経営上の最優先事項です。

 また、今回の問題は車両側の認識能力だけでなく、インフラ側の課題も浮き彫りにしました。

 信号機が自らの状態を車両に直接伝えるV2I(路車間通信)が未整備な中では、AIは「目」で見える視覚情報に頼るしかありません。

 物理的な信号消灯という事態に対して、極めて脆いという現実を突きつけられたのです。

 経営者としては、この判断基準を簡単に変えることはできません。