生成AIを駆動するNVIDIAのチップ「H100」とは?
Photographer: I-Hwa Cheng/Bloomberg

生成AIを駆動するNVIDIAのチップ「H100」とは?

コンピューター部品がハイテク業界を越えて活気づくことはまれだ。しかし、NVIDIAが5月に市場価値を1兆ドル超に押し上げる大々的な売上高見通しを発表した際、主役となったのは最新のグラフィックス・プロセッシング・ユニット(GPU)の「H100」だった。

(Bloomberg) – コンピューター部品がハイテク業界を越えて活気づくことはまれだ。しかし、NVIDIAが5月に市場価値を1兆ドル超に押し上げる大々的な売上高見通しを発表した際、主役となったのは最新のグラフィックス・プロセッシング・ユニット(GPU)の「H100」だった。この新しいデータセンター用チップは、生成AIをめぐる話題が、少なくともNVIDIAにとっては実際の収益につながっていることを投資家に示している。H100の需要は非常に大きく、一部の顧客は6ヶ月待ちとなっている。

1. H100とは?

H100という名前は、コンピューター科学のパイオニアであるグレース・ホッパーにちなんだものである。GPUは通常はPCに搭載されるチップの一種で、ゲーマーが最もリアルなビジュアル体験を得られるようサポートする。しかし、通常のものとは異なり、このチップの800億個のトランジスタは、画像を生成するのではなく、データを高速処理するために調整されたコアに配置されている。1993年に設立されたNVIDIAは、20年近く前から技術に投資し、この市場を開拓してきた。並列処理が可能なNVIDIAのチップは、いつの日かゲーム以外の用途でも価値を持つようになるだろうと賭けていたのだ。

2. なぜH100は特別なのか?

生成AIプラットフォームは、膨大な量の既存資料で訓練された後、テキストの翻訳、レポートの要約、コンピューターコードの記述などのタスクを完了することを学習する。人間の話し言葉を認識したり、求人のカバーレターを書いたりといった作業は、見れば見るほど上達する。彼らは試行錯誤を繰り返しながら成長し、熟達するために何十億回もの試行錯誤を繰り返し、その過程で膨大なコンピューティング・パワーを消費する。NVIDIAによると、H100は、いわゆる大規模言語モデル(LLM)のトレーニングにおいて、このチップの前身であるA100よりも4倍高速で、ユーザーからのプロンプトに返答する際には30倍高速だという。新しいタスクを実行するためにLLMを訓練することを急ぐ企業にとって、この性能の優位性は非常に重要である。

3. NVIDIAがポールポジションを獲得した理由は?

NVIDIAは、いわゆるGPUの世界的リーダーである。動きの速いビデオゲームでリアルな風景を作り出すことができる最も強力なGPUは、複数の処理コアを持ち、同時に複数の計算を行う。NVIDIAのエンジニアは2000年代初頭、タスクを小さな塊に分割して同時に処理することで、GPUを他のアプリケーション用のいわゆるアクセラレーターに作り変えることができることに気づいた。ちょうど10年前、AIの研究者たちは、この種のチップを使うことで、自分たちの研究がついに実用化できることを発見した。

4. 競合の状況は?

NVIDIAは、Amazon.com Inc.のAWS、Alphabet Inc.のGoogle Cloud、Microsoft Corp.のAzureが運営するAIデータセンターのアクセラレーター市場の約80%を支配している。これらの企業が自社でこれらのチップを製造する努力や、Advanced Micro Devices Inc.やIntel Corp.といったチップメーカーのライバル製品は、今のところアクセラレーター市場に大きな印象を与えていない。

5. それはなぜか?

NVIDIAは、ハードウェアをサポートするソフトウェアを含め、これまで競合他社が追随できなかったペースで急速に製品を更新してきた。インテルのXeonプロセッサーのようなチップは、より複雑なデータ解析が可能な反面、一般的にAIソフトウェアのトレーニングに使われるような大量の情報を並列的に処理するスピードははるかに遅い。NVIDIAのデータセンター部門は、2022年に売上高が41%増の150億ドルに達した。

6. 他の企業は追いついているのか?

コンピューターグラフィックス・チップの第2位メーカーであるAMDは6月、NVIDIAの製品が独占する市場を狙ったInstinctラインのバージョンを発表した。MI300Xと呼ばれるこのチップは、ジェネレーティブAI向けのワークロードを処理するため、より多くのメモリを搭載している、とAMDの最高経営責任者リサ・スーはサンフランシスコで開催されたイベントで聴衆に語った。「我々はまだ、AIのライフサイクルの初期段階にいる」と彼女は語った。インテルはAIワークロード向けの特定チップを市場に投入しているが、今のところ、データセンター向けGPUの需要は、同社の伝統的な強みであるセントラル・プロセッサー・ユニット(CPU)よりも急速に伸びていることを認めた。NVIDIAの優位性はハードウェアの性能だけではない。同社はCUDAと呼ばれるグラフィックチップ用の言語を発明し、AIプログラムを支えるような作業をプログラムできるようにしたのだ。

What’s the H100, the Chip Driving Generative AI?

By Ian King

© 2023 Bloomberg L.P.

翻訳:吉田拓史、株式会社アクシオンテクノロジーズ

Comments