メタの参加でインフラの地勢図塗り替わる

 一方、TPU(Tensor Processing Unit=深層学習用の行列計算に特化したプロセッサー)はグーグルが長年磨き上げてきた専用アーキテクチャで、巨大言語モデルや検索系の特定ワークロードにおいて、消費電力あたりの性能がGPUを上回るケースが増えてきました。

 グーグル内部では既に数百万台規模で運用され、GCP(Google Cloud Platform=グーグルが提供するクラウドのプラットフォーム)上で高度に統合されています。

 ここに2025年、Metaが数十億ドル単位でTPU導入を検討しているという報道が加わりました。

 業界の空気が一気に変わった瞬間です。

 他社がグーグルのAI半導体を採用するという事実は、インフラの地勢図を根底から揺さぶる意味を持ちます。

 この動きはGPU一強体制に対して、初めて実効的な圧力をかけ始めた出来事と言えるでしょう。

 では、なぜMetaがTPUに向かおうとしているのか。答えは極めて現実的です。

 GPUのコストです。

 Metaは同社が開発している大規模&小規模言語モデル「LLaMA」シリーズでOpenAIモデルの旗手となり、世界中の研究者や企業がLLaMAを基盤に新しいサービスを生み出しています。

 しかし、その裏側でMetaは途方もないGPUコストを支払い続けています。年間数千億円規模とも言われる投資は、生成AIの急拡大に伴ってさらに膨張を続けているのです。

 そこでMetaが行き着いた結論が、GPUだけでは経済が持続しないという現実でした。

筆者作成