写真:ロイター/アフロ
米オープンAIによるAI開発のインフラ戦略が、大きな転換点を迎えている。
11月初旬、同社は米アマゾン・ドット・コム傘下でクラウド事業を手掛ける米アマゾン・ウェブ・サービス(AWS)と7年間で380億ドル(約5兆8000億円)に上るクラウド利用契約を締結した。
提携する米マイクロソフト以外のクラウド大手との大型契約は、AIの頭脳となる「計算資源」の調達先を全方位に広げる「マルチクラウド戦略」を鮮明にするものだ。
AI業界の膨張するインフラ需要を取り込みたいアマゾン側と、特定の企業への依存から脱却したいオープンAI側の思惑が一致した。
一方で、オープンAIが抱えるインフラ投資のコミットメント(支払い約束)総額は1兆ドル規模(約154兆円)に迫り、AIブームの持続可能性を巡る議論も再び熱を帯びている。
AIの「計算資源」不足解消が急務
11月3日に発表された両社の戦略的パートナーシップは、オープンAIがAWSの世界クラスのインフラを即時利用可能にすることを核とする。
アマゾンは、対話型AI「Chat(チャット)GPT」の応答性能強化や次世代モデルのトレーニングのため、米エヌビディア(NVIDIA)製の最新AI半導体「GB200」や「GB300」を含む数十万個のGPU(画像処理半導体)を搭載したサーバー「Amazon EC2 UltraServers」を提供する。
このインフラは、AIが自律的にタスクを処理する「エージェント型AI」のワークロード(処理負荷)に対応するため、これら数十万個のGPUに加え、数千万規模のCPU(中央演算処理装置)も併用可能な構成だという。
計画された全容量は2026年末までに展開が完了する予定となっている。
オープンAIのサム・アルトマンCEO(最高経営責任者)は「フロンティアAI(最先端AI)のスケーリングには、大規模で信頼性の高いコンピュートが必要だ」と述べ、AWSとの提携が次世代のAIを支える広範なエコシステムを強化するとの期待を示した。