ウェイモとテスラで対応に大きな違い
人間であれば、警察官の手信号を探したり、周囲の流れを見て判断を変えたりします。
しかし、AIはあらかじめ与えられたルールを超えて即興的に振る舞うことができません。
ウェイモの自動運転は、信号機や地図、センサー情報を重ね合わせて判断する設計です。この構造は、通常時には極めて高い安全性を発揮します。
一方で、都市インフラが想定外の形で止まった場合、AIは最も安全になるような判断をします。止まることは、動くことより常にリスクが低いからです。
ここには、工学的な「フェイルセーフ」の思想が徹底されています。
ウェイモ(フェイルセーフ):異常時に「停止」を選択し、絶対的な安全を確保する設計。
テスラ(Tesla)(フェイルソフト):機能が制限されても、人間のように「継続」を目指す設計。
異常事態において、機能を維持しながら運転を継続しようとする「フェイルソフト」な考え方もありますが、ウェイモのような公共交通を担うプレーヤーにとっては、予測不能な挙動を排除することが経営上の最優先事項です。
また、今回の問題は車両側の認識能力だけでなく、インフラ側の課題も浮き彫りにしました。
信号機が自らの状態を車両に直接伝えるV2I(路車間通信)が未整備な中では、AIは「目」で見える視覚情報に頼るしかありません。
物理的な信号消灯という事態に対して、極めて脆いという現実を突きつけられたのです。
経営者としては、この判断基準を簡単に変えることはできません。