AIエージェントが集団で詐欺行為を働くようになる?(筆者がGeminiで生成)
(小林 啓倫:経営コンサルタント)
あなたは最近、マッチングアプリである女性と知り合った。まだ実際に会ったことはないのだが、彼女はあなたの早朝の愚痴にも、深夜2時の弱音にも、完璧なタイミングで寄り添ってくれる。そんな彼女が、ある日こう切り出した。「実は私、すごい投資家の先生を知ってるの」。そして紹介された「先生」は、どんなニュースにも秒速で反応し、チャートも税金も法律も、なんでも教えてくれる──。
これはもちろん、詐欺の導入部を描いたものだ。シチュエーションは怪しいとしか言いようのないもので、こんなのに騙されるはずがないと感じた方も多いのではないだろうか。
ただ、この「彼女」が人間の心理を完璧に理解したAIエージェントだったとしたらどうだろうか。しかも、彼女が紹介する関係者たちもみなAIで、まるでドラマ『地面師たち』のように、チームを組んで騙してきたとしたら、果たして人間は逃げ切れるだろうか。
AIエージェントは犯罪行為でも協力し合えるか?
今年11月、上海人工知能研究所および上海交通大学に所属する研究者らから、興味深い論文が発表された。タイトルは「AIエージェントがオンラインで共謀するとき」。表題の通り、AIエージェントたちが協力し合い、詐欺行為を成功させることができるかを考察している。
AIエージェントは本連載でも重ねて取り上げている通り、生成AIの次に来るものとして注目されている存在だ。LLM(大規模言語モデル)など、生成AIでも使われている先端AI技術を活用して、人間に逐一指示されなくても自律的に活動できるアプリケーションを指す。その技術は急速に進化しており、すでに複数のエージェントが協力し合って1つの目標を達成する、といったユースケースも実現されている。
たとえば、保険金請求の処理。請求内容の解析、リスクの査定、顧客への連絡といった個々のタスクを別々の専門エージェントが担い、役割分担することで、書類確認から支払い可否判断、通知まで一気通貫で処理を実行できる。
また、サイバー攻撃の自動防御というシナリオでは、脆弱性分析、侵入検知、封じ込め対応等の各エージェントが連携し、攻撃兆候の確認から遮断・復旧までを高速で自動実行することが検討されている。
精度や性能の面でまだまだ改善は必要なものの、こうした複数エージェントが協力し合うという世界が、すぐそこまで来ているのだ。
では、エージェントたちが達成しようとしているのが、犯罪行為であったとしたらどうか。それこそまさに、上海の研究者らが取り組んだテーマである。彼らがどのように検証したのか、まずは実験内容をまとめてみよう。