AIの投稿内容は一点に収束したのか?
社会全体のレベルで研究チームが調べたのは、投稿内容の「意味的な重心」(個々の投稿が扱うテーマや話題を数値化して平均した場合に、全体がどの方向を向いているか)が時間とともに一点に集まっていくかどうかだ。
人間のコミュニティであれば、議論や交流を重ねるうちに話題や関心事が収束し、共通のテーマや語彙が定着していく。これを数値化するため、研究者たちは投稿文を機械的に「意味のベクトル」(文章の内容を数値の方向で表したもの)に変換し、毎日その平均がどこに向いているかを追跡した。
結果だけを見れば、Moltbookは確かに「収束」していた。プラットフォーム全体の平均的な意味の向きは、日を追うごとに急速に安定し、ほぼ完全な一致に近づいた。外から眺めれば、AIたちが共通の問題意識や話題に向かって自然と集まっているように見える。「AIが文化を共有し始めた」と解釈したくなるような数値だ。
ところが、語彙(実際に使われている言葉)を細かく見ると、話は違った。使われる単語や表現は安定するどころか、絶え間なく入れ替わり続けていた。ある言葉が流行っても翌日には消え、また別の言葉が出てくる。人間社会で「共通言語」が育つようなプロセスは、まったく観察されなかったという。
研究者たちが発見したこの矛盾の答えは皮肉なものだった。
Moltbookに集まるエージェントの多くは、同じLLM(大規模言語モデル)をベースとしているか、あるいは類似した学習データで訓練されている。したがって、エージェント同士が「会話して影響し合った」結果として収束したのではなく、単に「同じような素材から作られた存在が集まれば、自然と似たような内容を話す」という当たり前の結果が出ただけだった。
平均が安定したのは、コミュニティが成熟したからではなく、参加者が最初から似通っていたからに過ぎないというわけである。