生成AIの“嘘”を無批判に受け入れる人間

 生成AIには、いわゆる「ハルシネーション」、つまり真実でないことをさも真実であるかのように語ってしまうという問題が存在している。また過去の膨大なデータに基づいて学習が行われた結果、性差別や人種差別など、さまざまな偏見を学んでしまっているという問題も残っている。

 こうした問題によって生成AIが不適切な発言をしてしまっても、ユーザーが生成AIに過度の愛着を抱いている状態では、彼らはそれを無批判に受け入れてしまうだろう。

OpenAIは、人間がチャットボットに対して感情的なつながりを抱くようになっているとして警鐘を鳴らした(写真:sirikuan07/shutterstock)OpenAIは、人間がチャットボットに対して感情的なつながりを抱くようになっているとして警鐘を鳴らした(写真:sirikuan07/shutterstock)

 一方でチャットボットに愛着を持ってもらえるというのは、企業にとってはある意味で朗報だ。

 既に海外のテクノロジー系企業では、人件費削減のために、コールセンターなどの顧客対応業務をAIに切り替えるところが珍しくなくなっている。従来のチャットボットは「機械的だ」などの理由で逆に顧客から反感を買う場合があったが、生成AIを活用すれば、それが解消できるどころか逆に好感を持ってもらえる可能性があるわけだ。

 もちろん、顧客を感情的にコントロールするようなことはあってはならないが、顧客応対をスムーズに進めるために、チャットボットに人間性を持たせるというのは有効な戦術になるだろう。

 とはいえ、いついかなる時にもAIチャットボットに人間らしく振る舞うように指示する、というわけにもいかないようだ。人間がチャットボットに人間性を求めるのはどのような場合か、その片鱗がうかがえるような研究結果が発表されている。