クラウドでAI革命が進行中 年7兆円に膨張するMSの投資
AIという成長エンジンを得て、マイクロソフトのデータセンター投資は加速している。今週発表されたAI半導体とCPUのペアは、この分野への強い意欲の証拠と言えるだろう。
AIという成長エンジンを得て、マイクロソフトのデータセンター投資は加速している。今週発表されたAI半導体とCPUのペアは、この分野への強い意欲の証拠と言えるだろう。
マイクロソフトは11月15日、開発者向けの年次イベントにおいて、2つの画期的なカスタム設計チップを発表した。AIタスクに特化した「Microsoft Azure Maia 100 AI Accelerator」(通称「Maia 100」)と、ArmベースのCPU「Microsoft Azure Cobalt 100 CPU」(通称「Cobalt 100」)だ。
Maia 100は、マイクロソフトのクラウドサービス「Azure」に特化して設計されたAIチップだ(*1)。このチップは、Azureのハードウェア構成に最適化されており、これにより性能と効率が最大限に引き出されているという。
さらに、Maia 100は、ChatGPTの開発で知られるAI企業OpenAI(マイクロソフトが株式49%を保有するとされる)からのフィードバックを反映している。これにより、大規模言語モデル(LLM)などにおいて、その性能が際立つことが特筆されている。マイクロソフトにとって、 Maia 100の投入は、AMD MI300X、NVIDIA H100/H200/B100、GoogleのTPUv5、AWSのTrainium/Inferentia2との競争へと突入したことを意味するだろう。
Maia 100とCobalt100のラインナップは、NVIDIAのArmベースCPUの「Grace」とAI向け高機能GPU「Hopper」の組み合わせを彷彿とさせる。これまで、マイクロソフトのAzureデータセンターでは主にNVIDIAのGPUが使用されてきた。マイクロソフトにとっては、自社製チップが余り振るわなくとも、AIチップとCPUのペアが存在することで、インテル、AMD、NVIDIAと好ましい価格交渉ができることに利点がある。このような戦略では、マイクロソフトは出遅れてきたと言っていい。
AIインフラの大部分は、中期的にはNVIDIAのGPUをベースにする予定だ。NVIDIA H100 NVL GPUを搭載した初のクラウドインスタンスであるNC H100 v5 VMシリーズのプレビューを発表し、来年中にNVIDIA H200をAzureに追加することも明らかにした。
マイクロソフトはOpenAIに対してAzureにあるNVIDIAのGPUの多くを提供しているとみられ、さらなるNVIDIA製品の調達が必要だ。様々なマイクロソフト製品はOpenAIの大規模言語モデル(LLM)のGPT-4を組み込んでおり(特にCopilotが一押しだ)、計算需要は膨大だろう。
だが、同時に他の半導体ベンダーへ多様化する取り組みが行われている。同社は、AzureにAMD MI300Xのバーチャルマシン(VM)を追加すると発表した。このVMは、高範囲のAIモデルのトレーニングや生成推論用のAIワークロードの処理を高速化するように設計されている。
AMD MI300Xは、外販されるAI半導体として、NVIDIAの有効な対抗馬になることが期待されている半導体だが、著しい需要超過(*2)のなか、AMDもまたNVIDIAと同様の高い価格を請求しようとしているようであり、マイクロソフトはMaia 100の実用性を高める必要性があるだろう。
マイクロソフトは現在、グーグルやAWSに比べてデータセンターへの自社設計のカスタム半導体の導入が遅れているが、実は、自社半導体プロジェクトの歴史は長い。同社はこれまで、AMDとセミカスタムのゲーム機用チップで協業してきたが、現在はArmベースのWindows PC用カスタムチップにもパートナーシップを広げている。
マイクロソフトの「Project Catapult(プロジェクト・カタパルト)」とは、検索、AI、ネットワーキングなどを対象とした長期的な取り組みである。このプロジェクトは当初、標準的なFPGA(製造後に購入者や設計者が構成を設定できる集積回路)を使用していたが、後にマイクロソフトはインテルと協力して、特別に設計されたカスタムFPGAを開発した。
データセンターへの資本支出は年6.8兆円の水準へ
マイクロソフトの4-6月期のデータセンターに対する資本支出が107億ドルに達し、前四半期の78億ドルから増加したことが話題になった。7−9月期の資本支出は、112億ドルと更に増加している。つまり、同社の資本支出は年間448億ドル(6.78兆円)の水準に達したということだ(*3)。
脚注
*1:Maia 100はTSMCの5ナノメートル(nm)プロセスをベースにしており、合計1,050億個のトランジスタを搭載する。
*2:テスラの元AIディレクターで現在はOpenAIのAndrej Karpathyは、NVIDIAのH100 GPUにアクセスできるかは、シリコンバレーの「最大のゴシップ」になりつつあると発言していた。彼は「大小のクラウドプロバイダーにおける大規模なH100クラスタのキャパシティは底を尽きつつある」と推測し、H100の需要は最低でも2024年末までこの傾向が続くだろうと予想した。https://www.axion.zone/nvidiagpu/
*3:業界最大手AWSの9月30日までの12ヵ月間の資本支出は500億ドルで、前年同期の600億ドルから減少した。