NVIDIAのGPU確保が米テクノロジー企業の最優先課題に

NVIDIAのデータセンターAI向けのGPU需要が著しく、獲得競争が過熱している。大手テクノロジー企業のほか、新興企業も競争に参戦。独自の優位性を持つNVIDIAのチップの需要は来年以降も高止まりすると考えられている。

NVIDIAのGPU確保が米テクノロジー企業の最優先課題に
NVIDIA H100 NVL. 出典:NVIDIA

NVIDIAのデータセンターAI向けのGPU需要が著しく、獲得競争が過熱している。大手テクノロジー企業のほか、新興企業も競争に参戦。独自の優位性を持つNVIDIAのチップの需要は来年以降も高止まりすると考えられている。


4日、決算説明会の場でソフトバンクの宮川潤一社長は、約200億円を投じ、生成AI基盤となるAIデータセンターを構築していると語った。NVIDIAのDGX Super Podで構成されたAIデータセンターは、経済産業省から53億円の助成を受け、2023年秋に稼働開始を見込んでいるという。これが日本最大規模のAI基盤になる予定だ。

ただし、これは現代のNVIDIA GPU獲得競争の(日本国内で観測できる)氷山の一角に過ぎない。

Microsoftは7月下旬の決算報告で、年次報告書のリスク要因を更新し、データセンター用GPUの確保の重要性について言及した。MicrosoftはAzureは保有するGPUの多くをOpenAIに貸していると見られ、OpenAIがGPT-5やそれ以外のAIの開発でより多くGPU需要を持っているはずだ。さらに社内の需要も存在するはずで、ことさらGPU供給の逼迫感を感じている可能性は高い。

Microsoftは、十分な容量を確保するために自社のデータセンター以外に目を向け始め、GPUをクラウドサービスとしてサードパーティの開発者に貸し出す、NVIDIAが出資するCoreWeaveと契約を結んだ。同時に、独自のカスタムAIプロセッサーの構築に数年を費やしてきた。ChatGPTに注目が集まったことで、Microsoftは自社チップの展開を加速させていると、米メディアThe Informationが4月に無名の情報筋の話を引用して報じた。Google、Amazon、Metaはいずれも過去10年間に独自のAIチップを発表している。

GPUの行き先は「シリコンバレー最大のゴシップ」

テスラの元AIディレクターで現在はOpenAIのAndrej Karpathyによると、NVIDIAのH100 GPUにアクセスできるかは、シリコンバレーの「最大のゴシップ」になりつつあるという。KarpathyはSNS「X」(旧Twitter)で、広く出回っているブログ記事を再共有し、「大小のクラウドプロバイダーにおける大規模なH100クラスタのキャパシティは底を尽きつつある」と推測し、H100の需要は最低でも2024年末までこの傾向が続くだろうと予想した。

ブログの著者は、OpenAIは50,000個のH100を、Inflectionは22,000個、Metaは25,000個を必要としていることを注記。加えて「大規模クラウドベンダー(Azure、Google Cloud、AWS、さらにOracle)はそれぞれ30,000個を欲しがるかもしれない」と推測している。さらにLambda LabsとCoreWeave、そしてその他のAIクラウドベンダーは、合計100,000個を望むかもしれない。Anthropic、Helsing、Mistral、Characterはそれぞれ10,000個を要するかもしれない、と 著者は書いている。

現状、LLMトレーニング(OpenAI、Anthropic、DeepMind、Google、イーロン・マスクのX.aiを含むすべての大手ラボが行っている)では、NVIDIAのH100に代わるものはない。各社がこのような投資をするということは、数年の減価償却の間、NVIDIA GPUがAI開発者にとって一定以上の有益さを保っているという推測が織り込まれていることを意味する。

さらにブログは各ベンダーの保有数について公開情報を組み合わせて以下のような推定を行っている。

  • GPT-4は10,000~25,000個のA100でトレーニングされたと思われる。
  • Metaには約21,000個のA100があり、Teslaには約7,000個のA100があり、Stability AIには約5,000個のA100がある。Falcon-40Bは384個のA100でトレーニングされた。
  • Inflectionは、GPT-3.5相当のモデルに3,500機のH100を使用した。Inflectionの創業者ムスタファ・スレイマンは12月までに22,000個を運用し、現在では35,000個以上を運用している。
  • GCPのH100は約25,000個。Azureはおそらく10,000~40,000のH100を持っている。AzureのキャパシティのほとんどはOpenAIに使われている。Oracleも似たようなもの
  • 専業のCoreWeaveは3万5,000~4万の規模。

データセンターのAI化の可能性と制約には、NVIDIAのAIチップ独占が深く関与している。半導体業界コンサルティング会社SemiAnalysisの分析によると、(株価急騰の原因となった)NVIDIAのデータセンター部門の売上の急成長は、GPU 以外のサーバーの購入が減ったことが直接の要因と考えられる。AIへの投資シフトにより、従来のCPUの売上が弱くなり、IntelからNVIDIAに予算が流れているということだ。NVIDIAは最新のAI応用に必要不可欠となっているDGX H100を約27万ドルで販売している(1個あたりの粗利益はほぼ19万ドルで6割超とSemiAnalysisは推定している。儲かるはずだ)。

金満Metaですら逡巡する「AIデータセンター」の莫大なコスト
「AIデータセンター」の需要が急成長している。しかし、AI化と運用に要するコストは極めて高く、流行りの大規模言語モデル(LLM)は、膨大な炭素排出を伴う。重厚長大型の軍拡競争には限界があるのかもしれない。

世界はGPUを担保にカネを借りられる時代を迎えている。AIクラウド専業の CoreWeave は、23億ドルの債務枠を確保した。この資金調達は 大手ヘッジファンドのブラックストーンら大手が主導し、AI コンピューティングで需要の高いH100 チップが担保となっている。これは「GPUを担保に借金し、GPUを買って担保にし…」という、「土地転がし」ならぬ「GPU転がし」が可能な時代に突入したことを意味する。

Read more

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史
Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Google Cloudは、年次イベント「Google Cloud Next Tokyo '24」で、大規模言語モデル「Gemini」を活用したAIエージェントの取り組みを多数発表した。Geminiは、コーディング支援、データ分析、アプリケーション開発など、様々な分野で活用され、業務効率化や新たな価値創出に貢献することが期待されている。

By 吉田拓史