ハルシネーションの落とし穴にはまる企業が続出

 エア・カナダがAI技術に疎かったというわけではない。同社は2019年にAIラボを設立し、業務と顧客体験の向上にAIを活用する姿勢を示してきた。その当時、エア・カナダ社長兼CEOのカリン・ロヴィネスクは、取材に対して「ビッグデータとAIは、今や我々のビジネスの大きな部分を占めている」と語っている。

Air Canada introduces Artificial Intelligence Labs to improve operations and customer experience(Future Travel Experience)

 そのため、先ほどの650.88カナダドルという返金の命令は、AIを推進する先進的企業というイメージを打ち出してきたエア・カナダにとって、無視できない一撃となった。

 AIに取り組んできた企業であっても、このような事件を起こしてしまった背景には、これまで本連載でも取り上げてきた「ハルシネーション(幻覚)」がある。

【関連記事】
生成AIの幻覚を利用した犯罪をどう防ぐか、早急に必要なハルシネーション研究(JBpress)
全米が震撼!Xで拡散された超大物アイドルのディープフェイク・ポルノの衝撃(JBpress)
生成AIは諸葛孔明を超えるか?生成AIを活用した外交・軍事の政策・戦略決定のリスク(JBpress)

 エア・カナダのチャットボットの詳細は明らかにされていないが、多くの専門家が、それが生成AI技術に基づいて構築されたものと推測している。

 ただ生成AIには、仮に聞かれた質問に対する答えを持ち合わせていなくても、「それらしい」回答をでっち上げてしまうという問題を抱えている。また、全体としては正しそうに感じられるが、細かな部分を確認すると間違っていたり(日付や数値が微妙に違うなど)、重要な情報が欠落していたりといったミスが起きる場合もある。

 これがハルシネーションで、いま多くの専門家が解決法を模索しているものの、決定打はまだ現れていない。

 生成AIがこうした実害をもたらしたのは、エア・カナダだけではない。他にもさまざまな形で、落とし穴にはまる企業の事例が報告されるようになってきている。