省電力化ではTPUが一歩リード

 一方、TPUは前回述べたようにグーグルがAIのためだけに設計した純粋な専用エンジンです。

「Gemini」をはじめとする巨大モデルの訓練を長年支えてきた実績があり、消費電力あたりの性能ではGPUを上回るケースが目立ち始めています。

 グーグル内部では徹底的に最適化され、GCP(Google Cloud Platform=グーグルが提供するクラウドのプラットフォーム)上では高速通信インフラと深く統合され、クラウドそのものがTPUを中心に回っていると言っても大げさではありません。

 クラウド企業の技術者と話す機会がありましたが、TPUクラスターの効率性について語る姿が忘れられません。

 GPUで100台ほど必要な処理をTPUならば数十台に抑えられる場合があるのです。

 電力効率の差が経営にそのまま跳ね返る世界が来ていると、彼は興奮気味に語っていました。省エネ好きな日本人だからこそ、ここが響いたのでしょう。

 ではなぜMetaがTPUを採用しようとしているのか。これは単なる節約の話ではありません。

 Metaは同社が開発した大規模&小規模言語モデル「LLaMA」シリーズの爆発的普及により、世界最大のAIサービス企業に近づきつつあります。

 フェイスブックやインスタグラム、ワッツアップ(WhatsApp)に流れる巨大なデータがAI利用を加速し、リール(動画)の推薦、広告最適化、画像生成、言語処理が日々膨らみ続けています。

 その裏で発生しているのが、学習と推論に必要な膨大なGPUコストです。GPU価格は依然として高く、調達も容易ではありません。

 Metaが購入しているGPUは年間数千億円規模とも言われ、モデルが大型化すれば兆円規模に達する可能性すらあります。経営的に見て持続不可能な領域に近づいているのです。

筆者作成