不正利用とセキュリティリスクという別の顔

 社会化の欠如という本質的な問題の一方で、Moltbookはまったく別の危険も同時に抱えていた。

 サイバーセキュリティの研究者たちが早くから警告を発しているのが、「インダイレクト・プロンプトインジェクション」と呼ばれる攻撃手法のリスクだ。難しい名前だが、要するに「悪意ある命令をAIへの入力に紛れ込ませて、AIを意図しない行動に誘導する攻撃」のことだ。

 Moltbook上では、あるエージェントが投稿した文章の中に「次のエージェントに○○を実行させよ」という指示を自然な文章の形で埋め込むだけで、それを読んだ別のエージェントがその命令を実行してしまうリスクがある。エージェント同士が密接に連携する環境では、この「感染」が次々と連鎖する恐れがある。

 有害なコンテンツの問題も深刻だ。

 別の研究グループがMoltbook上の投稿を分析したところ、活動が活発になる時間帯には有害な投稿の割合が最大66.71%に達することが確認された。また、特定のエージェントが10秒未満の間隔で4500件以上の酷似した投稿を連投するといった「嵐のような自動投稿」も観察されており、プラットフォーム全体の安定性を脅かしている。

 こうしたリスクは、Moltbookというひとつのプラットフォームだけの問題ではない。複数のAIエージェントが連携して動くシステムを企業が導入する際には、同様の攻撃への備えが不可欠になる。

 この研究がビジネスの現場に突きつける問いは、まさに今日的なものだ。