メタの参加でインフラの地勢図塗り替わる
一方、TPU(Tensor Processing Unit=深層学習用の行列計算に特化したプロセッサー)はグーグルが長年磨き上げてきた専用アーキテクチャで、巨大言語モデルや検索系の特定ワークロードにおいて、消費電力あたりの性能がGPUを上回るケースが増えてきました。
グーグル内部では既に数百万台規模で運用され、GCP(Google Cloud Platform=グーグルが提供するクラウドのプラットフォーム)上で高度に統合されています。
ここに2025年、Metaが数十億ドル単位でTPU導入を検討しているという報道が加わりました。
業界の空気が一気に変わった瞬間です。
他社がグーグルのAI半導体を採用するという事実は、インフラの地勢図を根底から揺さぶる意味を持ちます。
この動きはGPU一強体制に対して、初めて実効的な圧力をかけ始めた出来事と言えるでしょう。
では、なぜMetaがTPUに向かおうとしているのか。答えは極めて現実的です。
GPUのコストです。
Metaは同社が開発している大規模&小規模言語モデル「LLaMA」シリーズでOpenAIモデルの旗手となり、世界中の研究者や企業がLLaMAを基盤に新しいサービスを生み出しています。
しかし、その裏側でMetaは途方もないGPUコストを支払い続けています。年間数千億円規模とも言われる投資は、生成AIの急拡大に伴ってさらに膨張を続けているのです。
そこでMetaが行き着いた結論が、GPUだけでは経済が持続しないという現実でした。
筆者作成