サイバー心気症を防ぐためには

 研究者らが調査の対象とした生成AIは、Microsoftが提供する「Bing Copilot」。彼らはこの生成AIに対して、米国で最も処方される上位50の薬について、10件の一般的な質問を投げかけた。

 そして、Bing Copilotから返された回答を、正確性を事前に確認済みの薬物情報ウェブサイトと比較し、さらに薬物安全性の専門家が評価した。

 すると回答の39%が、現在の科学的合意と矛盾していることが判明。さらに前述の通り、5件に1件以上という高い割合で、死亡につながりかねない情報が含まれていることが確認されたわけである。

 研究者らは論文の中で、「チャットボットの回答は大部分が理解しにくく、情報が不足していたり、不正確さが見られるなど、患者と薬物の安全性を脅かす可能性がある」と指摘。医療情報専門のAIを開発・普及させるなど、より精度の高い技術が登場するまで、こうした生成AIの利用を推奨するには注意が必要だとしている。

 サイバー心気症を防ぐには、正確な情報にアクセスすることが欠かせない。しかし前述の通り、ChatGPTのような生成AIはいつでも利用でき、誰にも知られず、しかも分かりやすい言葉で伝えてくれるというメリットがある。

「医療情報を得るときにはChatGPTを使わずに、厚生労働省のサイトだけ見るように」などと言われても、誰も従わないだろう。

 特にサイバー心気症の観点から注意しなければならないのは、生成AIが持つ説得力だ。

 以前の記事で解説したように、「医師よりもChatGPTの方が患者に寄り添っており、心遣いのある言葉を投げかける」傾向が見られることが、研究により明らかになっている。

 医師から投げかけられる言葉よりもChatGPTの言葉の方が信じられるなどということになれば、生成AIから得た誤情報を病院が訂正するという可能性も難しくなるだろう。