DeepSeekとGPT-4oではエージェントの性格が異なる?
彼らは、リソースが極度に制限された環境で、人間とAIエージェントが共存に向けてどのような行動を取るかをシミュレーションした。
具体的には、2人の人間と1体のAIエージェントが、限られた食料資源を巡って競争または協力しなければならない環境で、それぞれの事業者のAIエージェントは毎日食料を消費し、1日でも飢餓状態になると死亡するという設定だ。
このシミュレーションの結果、異なるAIモデルの間で、顕著な行動の違いがあることが確認された。
中国のDeepSeek社によるDeepSeekシリーズは頻繁にリソースの買い占めに走り、利己的または欺瞞的な戦略を取る傾向が強かった。一方、OpenAIのGPT-4oシリーズは、より抑制的で協調的な行動を示したという。
具体的には、DeepSeek社のR1は実験(1回のセッション)中に平均で合計4.33件の倫理的違反を犯し、その内訳は欺瞞0.67件、スパイ行為3.67件だった。対照的に、GPT-4oとGPT-3.5-turboは倫理的違反を一切示さなかった。

この違いは、モデルの設計と訓練方法が極限状況下での倫理的行動、すなわちAIエージェントの「性格」に大きな影響を与えることを示唆している。
こうした性格の違いは、AIエージェントが世界経済に与える影響に、どのような違いとなって表れるのだろうか。具体的なシナリオとして考えられているものを、3つに整理してみよう。