クラウドでAI革命が進行中 年7兆円に膨張するMSの投資

AIという成長エンジンを得て、マイクロソフトのデータセンター投資は加速している。今週発表されたAI半導体とCPUのペアは、この分野への強い意欲の証拠と言えるだろう。

クラウドでAI革命が進行中 年7兆円に膨張するMSの投資
2023年10月12日木曜日、米ニューヨークにあるマイクロソフトの店舗。Photographer: Yuki Iwamura/Bloomberg

AIという成長エンジンを得て、マイクロソフトのデータセンター投資は加速している。今週発表されたAI半導体とCPUのペアは、この分野への強い意欲の証拠と言えるだろう。


マイクロソフトは11月15日、開発者向けの年次イベントにおいて、2つの画期的なカスタム設計チップを発表した。AIタスクに特化した「Microsoft Azure Maia 100 AI Accelerator」(通称「Maia 100」)と、ArmベースのCPU「Microsoft Azure Cobalt 100 CPU」(通称「Cobalt 100」)だ。

With a systems approach to chips, Microsoft aims to tailor everything ‘from silicon to service’ to meet AI demand - Source
Microsoft unveils two custom chips, new industry partnerships and a systems approach to Azure hardware optimized for internal and customer workloads

Maia 100は、マイクロソフトのクラウドサービス「Azure」に特化して設計されたAIチップだ(*1)。このチップは、Azureのハードウェア構成に最適化されており、これにより性能と効率が最大限に引き出されているという。

さらに、Maia 100は、ChatGPTの開発で知られるAI企業OpenAI(マイクロソフトが株式49%を保有するとされる)からのフィードバックを反映している。これにより、大規模言語モデル(LLM)などにおいて、その性能が際立つことが特筆されている。マイクロソフトにとって、 Maia 100の投入は、AMD MI300X、NVIDIA H100/H200/B100、GoogleのTPUv5、AWSのTrainium/Inferentia2との競争へと突入したことを意味するだろう。

Maia 100とCobalt100のラインナップは、NVIDIAのArmベースCPUの「Grace」とAI向け高機能GPU「Hopper」の組み合わせを彷彿とさせる。これまで、マイクロソフトのAzureデータセンターでは主にNVIDIAのGPUが使用されてきた。マイクロソフトにとっては、自社製チップが余り振るわなくとも、AIチップとCPUのペアが存在することで、インテル、AMD、NVIDIAと好ましい価格交渉ができることに利点がある。このような戦略では、マイクロソフトは出遅れてきたと言っていい。

AIインフラの大部分は、中期的にはNVIDIAのGPUをベースにする予定だ。NVIDIA H100 NVL GPUを搭載した初のクラウドインスタンスであるNC H100 v5 VMシリーズのプレビューを発表し、来年中にNVIDIA H200をAzureに追加することも明らかにした。

マイクロソフトはOpenAIに対してAzureにあるNVIDIAのGPUの多くを提供しているとみられ、さらなるNVIDIA製品の調達が必要だ。様々なマイクロソフト製品はOpenAIの大規模言語モデル(LLM)のGPT-4を組み込んでおり(特にCopilotが一押しだ)、計算需要は膨大だろう。

だが、同時に他の半導体ベンダーへ多様化する取り組みが行われている。同社は、AzureにAMD MI300Xのバーチャルマシン(VM)を追加すると発表した。このVMは、高範囲のAIモデルのトレーニングや生成推論用のAIワークロードの処理を高速化するように設計されている。

AMD MI300Xは、外販されるAI半導体として、NVIDIAの有効な対抗馬になることが期待されている半導体だが、著しい需要超過(*2)のなか、AMDもまたNVIDIAと同様の高い価格を請求しようとしているようであり、マイクロソフトはMaia 100の実用性を高める必要性があるだろう。

マイクロソフトは現在、グーグルやAWSに比べてデータセンターへの自社設計のカスタム半導体の導入が遅れているが、実は、自社半導体プロジェクトの歴史は長い。同社はこれまで、AMDとセミカスタムのゲーム機用チップで協業してきたが、現在はArmベースのWindows PC用カスタムチップにもパートナーシップを広げている。

マイクロソフトの「Project Catapult(プロジェクト・カタパルト)」とは、検索、AI、ネットワーキングなどを対象とした長期的な取り組みである。このプロジェクトは当初、標準的なFPGA(製造後に購入者や設計者が構成を設定できる集積回路)を使用していたが、後にマイクロソフトはインテルと協力して、特別に設計されたカスタムFPGAを開発した。

データセンターへの資本支出は年6.8兆円の水準へ

マイクロソフトの4-6月期のデータセンターに対する資本支出が107億ドルに達し、前四半期の78億ドルから増加したことが話題になった。7−9月期の資本支出は、112億ドルと更に増加している。つまり、同社の資本支出は年間448億ドル(6.78兆円)の水準に達したということだ(*3)。

脚注

*1:Maia 100はTSMCの5ナノメートル(nm)プロセスをベースにしており、合計1,050億個のトランジスタを搭載する。

*2:テスラの元AIディレクターで現在はOpenAIのAndrej Karpathyは、NVIDIAのH100 GPUにアクセスできるかは、シリコンバレーの「最大のゴシップ」になりつつあると発言していた。彼は「大小のクラウドプロバイダーにおける大規模なH100クラスタのキャパシティは底を尽きつつある」と推測し、H100の需要は最低でも2024年末までこの傾向が続くだろうと予想した。https://www.axion.zone/nvidiagpu/

*3:業界最大手AWSの9月30日までの12ヵ月間の資本支出は500億ドルで、前年同期の600億ドルから減少した。

Read more

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史
Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Google Cloudは、年次イベント「Google Cloud Next Tokyo '24」で、大規模言語モデル「Gemini」を活用したAIエージェントの取り組みを多数発表した。Geminiは、コーディング支援、データ分析、アプリケーション開発など、様々な分野で活用され、業務効率化や新たな価値創出に貢献することが期待されている。

By 吉田拓史