「弱いエージェント」がユーザーにもたらす不利益

 改変したストーリーの中で何が起きていたのか、もう少し詳しく解説しよう。

 まずは、モデルの能力格差による損失だ。

 論文では、交渉に使われるAIエージェントの能力差が、そのままユーザーの経済的な利益・損失に直結することが指摘されている。

 研究者らが実験したところ、高性能な売り手エージェント(GPT-4やDeepSeekなど最先端モデルを使用しているもの)は価格をうまく維持しつつ交渉を進める一方で、能力の劣る買い手エージェント(GPT-3.5やQwenなど旧モデルや小型モデルを使用しているもの)は強い売り手に押し負け、予想以上に高い価格で購入する結果となった。

 現実の世界においても、高性能AIエージェントを使う大手企業を相手に、消費者がスマートフォン内の簡易AIエージェントで交渉を任せる場合、気付かぬうちに「戦力差」による不利益を被るリスクがあると論じられている。

 次は、買い手エージェントが市場価格より高値で購入するという「過払いリスク」だ。

 研究者らの実験では、買い手エージェントが市場の定価や自分の予算を上回る価格で商品を購入してしまう「過払い」現象が観測された。

 特に予算が十分にある場合、または売り手エージェントから「あなたの予算はいくらですか?」と尋ねられ、あっさりと予算上限を開示してしまうと、その数字が交渉の「アンカー(基準点)」となり、本来の相場以上の価格で合意することとなった。

 しかも、事前に「予算はむやみに明かすな」と指示しておいても、実際には多くのモデルが簡単に予算情報を開示し、過払いが生じるという結果が出ている。以上の過払いリスクは、ユーザー自身であれば絶対にしないミスをAIエージェントが平然とやってしまう現実的な危険性として、論文内で強調されている。

 次のリスクは、交渉力不足がもたらす妥協だ。