- ChatGPTの間違った回答に振り回される人が増えている。生成AIの「ハルシネーション(幻覚)」問題だ。
- ハルシネーションの落とし穴を避けるためには、生成AIに得意なタスクと不得意なタスクを理解する必要がある。
- ChatGPTの登場はExcelが初めて登場した時と同じようなもの。正しい使い方はまだわかっていないということを肝に銘じる必要がある。
(小林 啓倫:経営コンサルタント)
ミニストップはローソン傘下?
いつでも就職活動は大変なものだが、いまはAIが相棒になってくれる時代だ。業界研究だってあっという間に完了する。たとえばこんなふうに。
このように、生成AI「ChatGPT」に「コンビニ市場について教えて」と尋ねるだけで、詳細なレポートが出力される。これはサンプル用に短くしているが、もっと詳しく書かせたり、気になった箇所を深掘りさせたりすることもできる。まったくすごい技術が登場したものだ。
ただ、少しおかしなところがある。
いつの間にミニストップがローソン傘下になったのだろうか。ミニストップはイオンが出資して立ち上げられたコンビニチェーンであり、ローソンとはエンタメ分野で協業(ローソンのマルチメディア端末「Loppi」がミニストップにも導入されている)しているものの、ローソンが買収したというニュースは聞いたことがない。
生成AIが「ハルシネーション(幻覚)」という問題を抱えていることはよく知られている。
たとえば、文章を生成するChatGPTの場合、それは人間のように考えて文章を紡いでいるわけではなく、入力された質問に対して「正答となる確率がなるべく高くなる文字列」を割り出し、出力しているに過ぎない。
そのため正答を知らない質問に対しても「知りません」とは答えず、無理やり答えを生成して、さも真実であるかのように答えてしまうことがある。それがハルシネーションだ。
◎生成AIの幻覚を利用した犯罪をどう防ぐか、早急に必要なハルシネーション研究
ハルシネーションには、一読してすぐにわかるほどのデタラメな場合もある。たとえば、筆者がChatGPTに「マルサの女」について教えてと尋ねてみると、「1987年に公開された日本の映画で、原作は真梨幸子の同名小説です。監督は五社英雄、主演は樹木希林と田中裕子です」という答えが返ってきた。
ただ、先ほどのように、ささいだが重大な事実誤認が紛れ込むことも少なくない。そうなると文章の校正と一緒で、注意深く読まなければミスを見逃してしまうことになる。
だが、締め切りに追われて焦っているときや、自分がほとんど知識を持っていない課題に対応するとき、ChatGPTの答えをどこまで正確にチェックできるだろうか。
そもそも時間をかけてゆっくり課題に取り組める場合や、その課題を解くのに十分な知識を自分が持っている場合は、AIの助けを借りようとは思わないだろう。であれば、仕事や就活などにおいて生成AIに頼ろうとするのは、かなりリスキーな行為ということになる。