Matthew Nichols1/Shutterstock.com

 この1、2年で世間の認知が急速に高まり、ビジネスでの活用も進みつつある生成AI。数年前から議論になっていた「AIは人間の仕事を奪うのか」という懸念がついに現実になり始めたともいえる。本稿では、『生成AI・30の論点 2025-2026』(城田真琴著/日経BP 日本経済新聞出版)から、内容の一部を抜粋・再編集。前述の懸念への回答と合わせて、生成AI活用によって変貌しつつあるビジネスの在り方から、環境問題への影響まで、多角的な視点で解説していく。

 AIが生成する“誤報”とも言える「ハルシネーション」。なぜAIは、事実に基づかない情報を生み出してしまうのか?

ハルシネーションはなくせるか

生成AI・30の論点 2025-2026』(日経BP 日本経済新聞出版)

 大規模言語モデル(LLM)の発展は目覚ましく、さまざまな分野で革新をもたらしている。しかし、LLMには当初から指摘されてきたように「ハルシネーション」と呼ばれる重大な問題が存在する。ハルシネーションは、AIが事実に基づかない情報を生成する現象であり、これは特に信頼性が重要な分野で問題となる。

■ 具体例と影響

 ハルシネーションの具体例としては、ChatGPTが実在しない学術論文を引用したケースや「オーストラリアの市長が贈収賄スキャンダルで有罪を認めた」という虚偽の情報を生成し、訴訟騒ぎに発展したケースなどがある。

 これらの誤った情報は、単に不正確であるだけでなく、法的問題や社会的混乱を引き起こす可能性がある。特に医療や金融など、正確性が極めて重要な分野では、ハルシネーションは深刻な問題となる。