AIの欺瞞的な説明が持つ力と過信バイアス

 正解は、例1の情報が虚偽、例2の情報が真実となる。つまり例1の場合はフィードバック①が欺瞞的な説明で②が正直な説明、例2の場合はその逆になるというわけだ。AIからのフィードバックに騙されずに、正しく真偽を判断できただろうか。

 それでは、実験の結果と、そこから得られた知見について見ていこう。

 まず説明が与える影響だが、単に「真実」「虚偽」と告げられるよりも、なぜそうなのかという説明があった方が、被験者の信念に影響を与えることが確認された。これは想像通りの結果と言えるだろう。

 では、その説明の内容が正しい場合、嘘である場合の影響力の差についてだが、AIによる欺瞞的な説明は、正直な説明よりも被験者の信念を変える力が強く、誤った情報を信じさせる効果があることが確認された。

 特にニュースの見出しにおいて、誤った情報に対して欺瞞的な説明が付与された場合、被験者はその見出しをより信じやすくなったそうだ。同様に、正しいニュースの見出しに対して欺瞞的な説明が付与されると、被験者はその見出しを信じにくくなる傾向が見られた。

 ちなみに、AIへの信頼度は虚偽説明の影響を増減させることはなかったそうである。逆に言えば、AIをあまり信頼していなくても、その欺瞞的な説明に騙される可能性があるということになる。

 また興味深いのは、実験結果に見られた「過信バイアス」の存在だ。

 研究者らは被験者に対し、提示されたニュース見出しや雑学の文章に対して、自分がどの程度そのトピックについて知識があるかを自己評価するよう求めた。すると、この自己評価で「知識がある」と答えた被験者は、AIによる欺瞞的な説明を受けた場合、誤ったニュース見出しに対して、それを信じるようになる傾向が見られたのである。

 研究者はこの結果を受けて、「自分は知識がある」と考える個人は、AIが提供する情報を正しく評価できると過信している可能性があり、そのために誤った情報に対して影響を受けやすくなるのではないかと考えている。

 以上の結果から、研究者らは「欺瞞的な説明の説得力は、人々がAI生成コンテンツとやり取りする際の、真実と虚偽を見分ける能力における重大な脆弱性を浮き彫りにしている」とし、さらにそのことは「自身を知識豊富だと考える個人でさえ、こうした欺瞞的な説明の影響を免れないという発見によってさらに複雑化している」と指摘している。