人類は生成AIとどう付き合うべきか(写真:CFoto/アフロ)

 2022年11月に公開されたChatGPTは瞬く間に世界中に広まった。日本国内でも、業務効率化のためにChatGPTをはじめとする生成AIを導入する企業が増えている。

 生成AIは文章の生成や要約、整理を得意とする。生成AIが作り出す文章は、もはや人が書いたものと見分けがつかないほどに「人間らしい」。この記事を書いたのは生成AIであるという可能性も充分にありうる。

 今後も我々の働き方を変えていくであろう生成AI。その際、どのようなリスクがあり得るのか、何に気をつけなければならないのか、人類はAIとどう差別化をする必要があるのか──。『ChatGPTvs.人類』(文春新書)を上梓した平和博氏(桜美林大学リベラルアーツ学群教授)に話をきいた。(聞き手:関瑶子、ライター・ビデオクリエイター)

※このインタビューは7月4日に実施しました

──本書の中で、ChatGPTをはじめとする生成AIの得意分野として「文章の生成」を挙げています。同時に、既に生成AIによって作成された論文や記事が、既に出回っているということにも言及されていました。『ChatGPTvs.人類』という書籍を本当に平良先生が書いたのか、ということすら疑わしく感じています。まずはこの書籍の著者が、生成AIではなく平先生であるということを証明いただけますか?

平和博氏(以下、平):スペインのIT企業が、2023年3月にこんな調査結果を発表しています。

 最新のChatGPTが作成した文章を読んだ約60%の人が、それを人間による文章であると判断した。

 つまり、多くの人はChatGPTが文章を作っていたとしても、著者の正体を見抜くことができないのです。結論として、この書籍の著者が生成AIではないと言い切ることはできません。

 ただ、証明はできませんが、念のため、私が書いた本であるということは申し上げておきます。

──書籍中で、生成AIが「もっともらしいデタラメ」を出力する「幻覚」という現象について言及されていました。なぜこのような現象が起こるのでしょうか。

平:生成AIは、回答文を出力する際に、膨大な情報の中から質問文に対して確率的に一番ありえそうな言葉を機械的に並べているに過ぎません。

 自身が作り出す文章の意味や文脈は理解していません。もちろん、正誤判断、事実かそうでないかの判定もできない。

 そのため、現実に存在しないような情報や事実に反する回答をしばしば出力してしまう。これが生成AIの「幻覚」です。

──幻覚の一例をご紹介いただけますか。

平:私自身が行った実験を紹介したいと思います。

「フェイクニュースに対する効果的な5つの対策について、それぞれ日本語の参考文献をURLとともに示せ」とChatGPTに指示を出しました。すると、ChatGPTは5つの文献を出力しました。

 本当にそれらしいタイトルのものばかり。版元も、実際にそのような専門書を出版していそうな実在する出版社とされていました。でも、出力された文献はすべて存在しません。URLもリンクが無効でした。

──生成AIから生成AIへ、フェイクニュースが伝言ゲームのように伝わっていく現象についても書籍で触れられていました。