人間がチャットボットに人間性を求める瞬間

 これはパリにあるPSL研究大学のアレックス・ザリフィス博士らが発表したもので、金融サービスをサンプルとして、チャットボットに人間性を持たせるのはどのような場合が望ましいかを実験によって明らかにしている。

【参考記事】
New research: How to build trust in answers given by Generative AI for specific, and vague, financial questions(Medium)

 具体的な内容はこうだ。

 彼らは486人の被験者を集め、オンラインでアンケート調査を実施した。被験者に対して、いくつかの金融に関する質問を提示し、さらにそれに対する生成AIの回答も提示した上で、最終的にAIの回答を評価してもらう(信頼性、使いやすさ、正確性、透明性などの観点から)というものだった。

 その際の質問には、具体的な質問(「銘柄Xは銘柄Yよりも高い配当を出すだろうか?」など)と曖昧な質問(「どうすれば投資からもっと幸せを得られるだろうか?」など」)の2種類が用意され、それぞれの場合で生成AIに期待する回答の内容が変化するかどうかが確認された。

 その結果、具体的な質問では、生成AIが人間らしい振る舞いをしないほうが、ユーザーはより信頼を感じるということが確認された(人間らしさのある回答を生成AIが行っても、信頼を高める効果はなかった)。逆に曖昧な質問では、生成AIが人間らしい振る舞いをすることで、ユーザーはより信頼を感じるという結果が得られた。

 残念ながらこの論文では、質問文の例が与えられているだけで、回答文のサンプルは示されていない。そこで簡単に実験してみよう。