(英フィナンシャル・タイムズ紙 2022年12月9日付)

テクノロジー界を驚愕させている最新版「生成人工知能」の「チャットGPT」を、我々はどう理解すべきなのだろうか?
熱狂的なユーザーと懐疑的な科学者
これは人間の言葉で問いかけると長くてもっともらしい答えをあっという間に返すことができる人工知能(AI)だ。
米サンフランシスコを本拠地とする研究企業オープンAIによって12月初めに公開されたばかりだが、すでに100万人を超えるユーザーに試用されている。
熱狂的なユーザーは、チャットGPTがコンテンツの制作、ソフトウエアの生産、デジタルアシスタント、そして検索エンジンに革命を起こすとか、人間の知識のデジタルの土台を根本から作り変える可能性さえあるなどと予言している。
チャットGPTの重要性は核分裂に匹敵するとツイートした人もいた。
このようにひどく興奮した反応に接したコンピューター科学者のなかには、頭を抱えて嘆く人もいる。
チャットGPTは高度な機械学習システムの一つにすぎない、パターン認識と複製の能力は信じられないほど優れているかもしれないが、知能の片鱗など全く見られないと訴える。
おまけに、チャットGPTは新しい技術でさえない。
これはオープンAIが2020年に公開した「GPT-3」という、いわゆる大規模言語モデル(基盤モデル)に微調整を加え、人間の指導によって対話用に最適化したうえで幅広いユーザーに公開した技術なのだ。
チャットGPTが自己評価する欠点
面白いことに、チャットGPT自体は自らの能力にさほど感心していないようだ。
自分の欠点は何かと筆者が問いかけた。
すると、チャットGPTは文脈の理解に限界がある、良識がない、事前の学習に用いたデータにバイアスがかかっている、そして例えば金融市場を操作するために偽情報を拡散させることによって悪用される恐れがあるとリストアップしてきた。
そして「チャットGPTはパワフルで素晴らしい技術ではあるものの、限界や潜在的な欠点がないわけではない」と回答してきた。
ある研究者はもっと率直に、「このAIは事実の幻覚を見る」と言っている。