医療関連での生成AIの正答率は?

 これまでサイバー心気症の主な原因となっていたのが、検索エンジンの普及だ。Google検索を使って医療情報を探そうとする行為は、英語圏では「Dr. Google(グーグル先生)」などと表現され、ごく一般的な行動として定着している。

 ただ、医療関係に限った話ではないが、ネット上の情報が玉石混交であるために、人々が質の悪い医療情報を手にすることが増えてしまっていたわけである。

 それに取って代わろうとしているのが「Dr. ChatGPT」だ。ある研究によれば、既にChatGPTに対して、COVID-19やガンに関する質問をする人が多く存在することが確認されている。

 特にCOVID-19ではワクチンや症状、予防策に関する質問が多く、ガンに関しては治療法やリスク要因についての質問が見られたそうだ。

 また生成AIに限定したものではないが、医療相談におけるチャットボットの利用に関する別の研究によれば、性病のような他人に相談するのを恥ずかしく感じる病気の場合、人々は医師よりもチャットボットを相談相手として選ぶ傾向があることが確認されている。

 24時間365日、いつでも手元からアクセス可能で、自分が普段使っているような言葉でコミュニケーションでき、しかも、他人に知られる心配のない生成AIは、医療情報を得る手段として急速に定着しつつあると言えるだろう。

 しかしその回答は、どのくらい正確なのだろうか。もちろん、AIを活用したチャットボットの中には、専門知識を正確に伝えるために、特別な開発やカスタマイズがなされているものが存在する。

 特に医療分野での生成AI活用については、医師をサポートできるほどの高い回答精度を実現したアプリケーションも登場してきている。

 ただ、「サイバー心気症」の観点から考えなければならない問題は、一般の人々が日常的に使用するような生成AIが、どのくらい正しい医療情報を出力してくれるかという点だ。

 この点について、最近、興味深い論文が発表されている。ドイツにあるエアランゲン・ニュルンベルク大学の研究者らによって発表されたこの論文によれば、一般的な処方薬に関する質問への生成AIによる回答の20%以上が、死亡または重大な危害につながる可能性があることが判明したというのだ。