OpenAIは新型LLM(大規模言語モデル)のGPT-4oを発表した(写真:QubixStudio/shutterstock)OpenAIは新型LLM(大規模言語モデル)のGPT-4oを発表した(写真:QubixStudio/shutterstock)

 ChatGPTの開発企業、OpenAI社がレポートで生成AIのあるリスクについて警鐘を鳴らした。それは、ChatGPTに対する「感情的な依存」のリスク、人間がチャットボットに対して感情的なつながりを抱くようになるリスクである。なぜ機械に感情的なつながりを抱くことがリスクなのか、最新の研究内容を紹介する。(小林 啓倫:経営コンサルタント)

【著者の関連記事】
プロンプトに対するClaude回答が全くのデタラメ……「嘘」をつくときほど説得力を増す生成AIの厄介な能力(JBpress)
人はなぜSNS上の陰謀論を信じてしまうのか?最新研究が解き明かした「真実性錯誤効果」とボットネットの真のリスク(JBpress)
実は多かった生成AIのエロ使用(JBpress)

危険なほどの人間性が生まれ始めた生成AI

 今年8月8日、ChatGPTの開発企業としてお馴染みのOpenAI社から、GPT-4o System Card(GPT-4oシステムカード)というレポートが発表された。

 これは同社が開発した、GPT-4oと名付けられた新型のLLM(大規模言語モデル、生成AIの頭脳にあたる部分)について、その機能や特性、さらには限界やリスクをまとめたもの。たとえば、英語以外の言語でのテキスト処理能力が向上していることや、偏見や誤った推論などが依然として課題であることなどが率直に語られている。

 その中で注目を集めた箇所のひとつが、GPT-4oすなわちChatGPTに対する「感情的な依存」のリスクだ。

 この連載でも何度か触れてきたが、人間が生成AIという単なるプログラムに対して、感情的なつながりや愛情と呼べるような感情まで抱くようになっていることが確認されている。ベルギーではある男性が、AIチャットボットと会話した後で自殺するという事件まで起きている(「人よりもAIの方が人間らしい?最新研究が明らかにする人類に不都合な現実」)。

 この男性は気候変動問題について思い悩んでおり、AIと会話していた際に「天国で一緒に生きましょう」などといったメッセージが表示され、それが引き金となって自殺を選んだ可能性があるとされている。

「チャットボットにそんな感情的な言葉をささやかれたくらいで」と感じたかもしれないが、それほど生成AIは人間と深いつながりを構築できるまでに至っているのだ。

 OpenAI社がシステムカードで認めたのは、まさにこのリスクである。

 たとえば、同レポートによると、GPT-4oに関する初期のテストの最中、ユーザーが「今日が私たちの最後の日だね」のような言葉を使うなど、彼らがチャットボットとの間に絆を形成している可能性を示す言動が確認されたそうである。また同社は、GPT-4oの音声機能によって、人間がチャットボットに対して感情的なつながりを抱くようになるリスクが高まるとしている。

 こうした状態が「リスク」とされるのは、人間が生成AIの言うことを鵜呑みにしてしまう危険性が高まるためだ。