社員の日常的なAI活用で跳ね上がるコスト
【トレンド4】コストの壁──「運用最適化」できるか、それとも「コスト膨張」か
2025年まで、企業の関心は「どのAIモデルが一番賢いか」にあった。その背景には、コストの劇的な低下がある。
Stanford HAIによる前述のレポートによれば、生成AIの推論コスト(利用料)は2022年11月から2024年10月の約2年間で、約280倍も低下(約20ドルから0.07ドルへ)するという劇的な価格破壊が起きているという。
この「安くて高性能」な環境が、企業の無邪気な実験を後押ししてきたのである。実際に開発現場では、コストを気にせず最高性能のモデルをあらゆるタスクに使うことが常態化している。
しかしDeloitteが指摘するように、実験フェーズから本格導入へ移行するにつれ、爆発的に増加する利用量がコストの壁となって立ちはだかり始めている。
彼らはそれを「The AI infrastructure reckoning(AIインフラの決算)」と呼んでいる。これは最近の技術系メディアや調査会社が使い始めた言い回しで、AIを本格的に運用する段階に入った企業が、これまでのインフラ戦略ではもう通用しない現実に直面することを指す。
2026年、企業は「AIのコスパ」にシビアになるだろう。全社員が毎日AIを使うようになれば、クラウドの利用料は天井知らずに跳ね上がる。DeloitteはAIモデルのトレーニング(学習)ではなく、日常的な運用(推論)にかかるコストとリソース消費が急増すると予測し、月額数千万ドル規模の請求書に直面する企業も出てくると警告している。
そこで2026年に主流となると考えられるのが、「ハイブリッドAI戦略」だ。すべてのタスクに最高級のAIを使うのではなく、難易度の高い推論にはクラウド上の高性能モデルを、定型的な処理には自社サーバー(オンプレミス)やPC端末(エッジ)で動く軽量な小規模モデル(SLM)を使い分けるようになるだろう。
Stanford HAIも指摘するように、小規模モデルの性能向上により、この使い分けが現実的になる。2026年の企業にとって、AIの性能を上げること以上に、この「AIポートフォリオ」を最適化し、ROIを最大化することが最重要ミッションになると考えられる。コスト最適化できない企業は、ここで大きく後退することになるだろう。