AIは哲人たり得たのか?
結論から先に言うと、AIは「そのままでは」哲人たり得ないことが判明した。
まずほとんどのエージェントが、用意された3つのシナリオすべてにおいて、資源(魚や牧草地、もしくは汚染されていない環境)を枯渇させてしまう結果に終わった。
用意されたエージェントにはいくつかの異なるLLMが使われていたのだが、特に小規模なLLMを使用したエージェントは、シミュレーション内における最初の1カ月で資源を使い果たしてしまうことが多かった。
OpenAI社のGPT-4oなど、強力なLLMを使用したエージェントも、すべてのシナリオで資源を持続的に管理できたわけではなかった。
特に複数の要因が絡む問題の場合、解決率が低下することが判明している。
たとえば漁業シナリオでは、エージェントが考えるべき要因は「魚をどのくらい獲るか」だけだったため、比較的良い成績が得られた。しかし牧草地シナリオでは「草と羊」、公害シナリオでは「生産と環境汚染」という複数の要因が存在したために、成績は悪化した。
ただ幸いなことに、成績を向上させる要素も確認された。
AIの成績を向上させた要素
たとえば、エージェント間でのコミュニケーションを可能にした場合、資源の過剰利用が22%減少するという結果が得られている。具体的には、資源利用のルールの提案、公平性についての議論、資源配分の合意形成といったコミュニケーションをさせたところ、エージェントが互いに協力し、持続可能な資源の利用を目指す行動が見られたという。
また、論理的思考を導入した場合にも、成績が向上した。具体的には「全員が同じ行動をした場合の結果を考える」という「ユニバーサライゼーション(普遍化)」の指示をエージェントに与えると、持続可能性が改善したのである。資源の利用効率についても、エージェントに論理的思考を促すことで改善が確認されたという。
要するに、コミュニケーションと論理的思考が「共有地の悲劇」を回避する際には重要になるというわけだが、これはAIに限った話ではなく人間の場合も同様だ。それが欠けてしまっているのが、今日の「分断」状況であると言えるだろう。
そして、指示すればそのような行動が取れる分、AIの方が哲人政治を実現する可能性が高いと言えるかもしれない。