グーグルだけでなくアマゾンも独自チップ

 グーグルが早くからAI向けの独自チップ「TPU(Tensor Processing Unit=AIに必要な行列計算を高速化した演算処理装置)」を開発し、Gmailやユーチューブ、検索など自社サービス全体をTPUで支えていることは前に書きました

 その規模は今や一企業のレベルを超え、国家に匹敵すると言われます。
 
 しかも「Google Cloud」の顧客もTPUを利用できるため、グーグルは「ハード+クラウド+AIモデル」をすべて自前化した世界でも数少ない企業になりました。

 TPUを内製化できたことで、グーグルはGPU調達による制約から自由になり、AI開発のスピードが他社より一段階速いように感じます。

 前回述べたOpenAIの動きとは対照的に、グーグルは資源そのものを作る側に位置していることが特徴です。

 アマゾンも独自チップ戦略を強化しています。

 AWS(アマゾン・ウエブ・サービス)が開発した「Trainium」と「Inferentia」の2つの半導体チップは、大規模モデル向けの学習と推論に最適化されており、AWS利用企業はGPUより安価にAIを運用できるようになるのです。

 アマゾンの狙いは明確です。

 クラウド覇権を維持するために、計算資源をAWS内部で完結させる構造を作ることです。

 日本企業の多くがAWSに依存している現状を考えると、Trainium・Inferentiaの普及は日本企業のAI活用に大きな影響を与えるでしょう。