(写真:ロイター/アフロ)

 アマゾンは、生成AI(人工知能)が事実でないことを事実らしく作り上げる「ハルシネーション(幻覚)」と呼ばれる虚構回答の問題に、数学的アプローチで取り組んでいる。AIの回答精度を高めることで、信頼性を向上させ、ビジネス機会の拡大を狙う。

 チャットボット(対話型AI)の普及が進むなか、AIが時折生成してしまうハルシネーションが問題となっている。特に企業利用においては、AIが重要な意思決定に関わるため、正確性が求められる。アマゾンのクラウドコンピューティング事業「Amazon Web Services(AWS)」は、この問題を解消するため、AIと数学を組み合わせた「自動推論(Automated Reasoning)」という分野に着目し、AIモデルの正確性を数学的に証明しようとしている。

アマゾンの取り組み「自動推論」とは?

  米ウォール・ストリート・ジャーナル(WSJ)によれば、自動推論は、2000年の歴史を持つ数理論理に基づく、「シンボリックAI」の1つの分野である。AIが特定の振る舞いをするかどうかを数学的証明を用いて保証する。AWSはサイバーセキュリティー分野で自動推論を活用し、法人向け暗号技術の正当性を証明することで顧客の信頼を得てきた。AWSはこれに注目し、自動推論分野の専門家を数多く獲得してきた。

 AWSは、「Automated Reasoning Checks」というツールを開発し、顧客が定義したポリシーに基づき、AIの回答が正確かどうかを検証している。定義ポリシーとは、例えば、従業員福利厚生に関する社内規定や商品の化学的分析などの詳細情報である。これにより、AIが規制に違反するような不適切な情報を生成するリスクを軽減する。

 監査・コンサルティング大手の米プライスウォーターハウスクーパース(PwC)はこのツールを用い、製薬業界などのハルシネーション対策を支援している。具体的には、ある製薬会社が新薬の広告を作成する際、AIに広告文案の作成を依頼したとする。その際、AWSのAutomated Reasoning Checksを用い、AIが作成した文章が広告規制に違反していないかを事前に確認する。違反している可能性がある場合は、AIに修正を指示したり、人間が最終確認したりすることで規制違反のリスクを回避できる。