ファクトチェック能力を著しく下げる2つのバイアス

 そもそも生成AI自体が、ファクトチェックに向かないのではないかという声も大きい。

 よく知られているように、生成AIは「ハルシネーション(幻覚)」(生成AIが情報を捏造したり、存在しない証拠を引用したりすること)を起こす傾向がある。またハルシネーションが起きた場合に、それを自信満々に回答することも知られている。

 コロンビア大学デジタルジャーナリズムセンターの研究によれば、生成AIチャットボットは答えを知らない場合でも、「分からない」と不確実性を認めるのではなく、誤った答えや推測に基づいた答えを出すことが多いことが確認されている。

 特にGrokの場合はこの傾向が強く、別の調査によれば、ニュース関連の質問の94%に対して誤った情報が含まれる回答をしたそうだ。

 またGrokには、ユーザーが提示した前提や質問の方向性に対して、それに無批判に同調してしまう傾向(確証バイアス)があることも確認されている。

 たとえば、前述のAFP通信による報告によれば、あるユーザーが実際にはロシア軍の事故であった映像を、インド・パキスタン紛争時のインド軍の失態ではないかと示唆して質問した際、Grokは当初これを肯定するような回答をしている。

 それに対して、別のユーザーがそれがロシア軍の映像である証拠を提示すると、Grokは即座に態度を改めて謝罪したそうだ。

 同様に、GrokがX上の最新のトレンドやバイラルな情報に過度に重きを置くという傾向(最近性バイアス)の問題も指摘されている。xAI社自体が、Grokが最近話題になっているものに対して「長期的に見てそれに相応しい以上の重みを与えることがある」、つまりそれを必要以上に重視してしまうと認めている。

 前述のような、実際には数カ月前のイスラエルでの出来事の映像を、直近のインド・パキスタン紛争に関連するものとして誤認した事例は、この最近性バイアスの典型と言えるだろう。

 この確証バイアスと最近性バイアスという2つの特性が組み合わさることで、Grokのファクトチェック能力は著しく低下する結果となっている。

 ある誤情報がX上で急速に拡散しトレンドになっている状況(最近性バイアスが働く状況)で、ユーザーがその誤情報を前提とした誘導的な質問(確証バイアスを引き出す質問)をGrokに投げかけた場合、Grokはその情報の真偽を深く検証することなく、あたかもそれが事実であるかのように「認識」してしまう可能性が高い。

 このようなGrokの挙動は、中立的かつ客観的な情報検証が求められるファクトチェックにおいて、極めて重大なリスクとなる。

 GrokのようなAIファクトチェッカーが誤った評価を下すと、ユーザーがそれを「証拠」として引用し、AI生成または虚偽のコンテンツが本物であると信じるようになるという、憂慮すべき現象も観察されている。

 前述のアナコンダのビデオの場合、Grokがそれを「本物」とラベル付けし、さらにはその裏付けとなる詳細情報を捏造したことで、虚偽に権威を与える結果となった。

 AIリテラシーが低かったり、ソーシャルメディア上のコンテンツを信じやすかったりするユーザーは、Grokの「ファクトチェック」を二次情報源として利用し、自分たちの信念を検証して誤情報をさらに広めてしまう。むしろファクトチェックしなかった方がまし、という状況が生まれてしまうわけだ。