グーグルだけでなくアマゾンも独自チップ
グーグルが早くからAI向けの独自チップ「TPU(Tensor Processing Unit=AIに必要な行列計算を高速化した演算処理装置)」を開発し、Gmailやユーチューブ、検索など自社サービス全体をTPUで支えていることは前に書きました。
その規模は今や一企業のレベルを超え、国家に匹敵すると言われます。
しかも「Google Cloud」の顧客もTPUを利用できるため、グーグルは「ハード+クラウド+AIモデル」をすべて自前化した世界でも数少ない企業になりました。
TPUを内製化できたことで、グーグルはGPU調達による制約から自由になり、AI開発のスピードが他社より一段階速いように感じます。
前回述べたOpenAIの動きとは対照的に、グーグルは資源そのものを作る側に位置していることが特徴です。
アマゾンも独自チップ戦略を強化しています。
AWS(アマゾン・ウエブ・サービス)が開発した「Trainium」と「Inferentia」の2つの半導体チップは、大規模モデル向けの学習と推論に最適化されており、AWS利用企業はGPUより安価にAIを運用できるようになるのです。
アマゾンの狙いは明確です。
クラウド覇権を維持するために、計算資源をAWS内部で完結させる構造を作ることです。
日本企業の多くがAWSに依存している現状を考えると、Trainium・Inferentiaの普及は日本企業のAI活用に大きな影響を与えるでしょう。