AMDがエヌビディアの背中に取りついた 詰まるAIチップの性能差

AMDはAIチップにおける性能差を大幅に縮めた可能性がある。しかし、ソフトウェアの面ではまだNVIDIAに匹敵していないと考えられる。

AMDがエヌビディアの背中に取りついた 詰まるAIチップの性能差
2023年12月6日水曜日、米国カリフォルニア州サンノゼで開催された「AMD Advancing AI」イベントで、アドバンスト・マイクロ・デバイセズ・インク(AMD)のリサ・スー会長兼最高経営責任者(CEO)。AMDは、AIソフトウェアをライバル製品よりも高速に実行できるとする、いわゆるアクセラレーター・チップを新たに発表した。写真家 David Paul Morris/Bloomberg

AMDはAIチップにおける性能差を大幅に縮めた可能性がある。しかし、ソフトウェアの面ではまだNVIDIAに匹敵していないと考えられる。


AMDとNVIDIAは、それぞれのAI半導体、「Instinct MI300X」とH100の性能をめぐって技術的な論争を繰り広げている。この論争は、性能をテストする際に使用された方法とデータタイプを中心に展開されている。

AMDは、「一般的なテスト方法」を使用した場合、自社のMI300XがNVIDIAのH100よりも高速であると主張した。リサ・スー最高経営責任者(CEO)らはプレゼンテーションの中で、メタのオープンソースLLMである「Llama 2」を使用したNVIDIA H100の推論性能と比較した。同社は8台のMI300Xで構成されるAMDのサーバー1台が、H100のサーバーより1.6倍高速に動作した、と主張した。

一方、NVIDIAは、AMDのテストはNVIDIAの「TensorRT-LLM」システムに特化した最適化を使用しておらず、NVIDIAはFP8と呼ばれる別のデータ型に最適化されているため、不公平であると反論。NVIDIAは、H100のようなAIに特化したチップは、NVIDIA独自のTensorRT-LLMで最適に動作するように特別に設計されていると説明している。NVIDIAによると、広く使用されているオープンソースの「vLLM」を使用すると、これらのチップのパフォーマンスが低下するという。

NVIDIAは、TensorRT-LLMを使用してMI300XとH100の性能比較を行い、それぞれが1秒間に処理できるクエリの数に着目した。その結果、この指標では、H100がMI300Xを大きく上回った。AMDが使用する標準的なレイテンシ(遅延)の基準を適用すると、NVIDIAは、MI300を14倍も上回るという驚くべき結果を示した。

Achieving Top Inference Performance with the NVIDIA H100 Tensor Core GPU and NVIDIA TensorRT-LLM | NVIDIA Technical Blog
Best-in-class AI performance requires an efficient parallel computing architecture, a productive tool stack, and deeply optimized algorithms. NVIDIA released the open-source NVIDIA TensorRT-LLM…

しかし、AMDはさらに反論した。AMDはNVIDIAの主張を汲み取った新たな性能比較を発表したのだ。AMDの発表によると、両者がvLLMを使用しFP8データ型で性能を比較した際、MI300XはH100を約2.1倍上回るスコアを達成した。また、H100がTensorRT-LLMを利用し、MI300XがvLLMを使用した場合でも、MI300XはH100より約1.3倍高いスコアを記録した。さらに、H100の「TensorRT-LLM利用、FP8」とMI300Xの「vLLM利用、FP16」を比較した結果、MI300Xの方がレイテンシが約0.1秒低いことが確認された(下図)。

出典:AMD
Competitive performance claims and industry leading Inference performance on AMD Instinct MI300X
On December 6th, AMD launched our AMD Instinct MI300X and MI300A accelerators and introduced ROCm 6 software stack at the Advancing AI event. Since then, Nvidia published a set of benchmarks comparing the performance of H100 compared to the AMD Instinct MI300X accelerator in a select set of inferenc…

議論の核心は、これらのテストがどのように実施され、どのような基準が使用されているかということだ。AMDは、NVIDIAのテストはサーバーの待ち時間など特定の要因を無視しており、あまり一般的でないテスト方法を使用しているため、実際の状況を反映していないと主張した。NVIDIAは、自社のH100が独自のテスト条件下でより優れた性能を発揮すると主張した。

ソフトウェアの大差は残る

AMDはAIチップの性能差を一気に詰めた可能性がある。ただ、まだ、ソフトウェアではNVIDIAに追いついていないだろう。NVIDIAは、市場を成長させるためのツールやアプリケーションの必要性を常に認識している。彼らは、NVIDIAハードウェア用のソフトウェアツール(例えば、CUDA)や最適化されたライブラリ(例えば、cuDNN)を入手するための障壁を非常に低くしている。

NVIDIAは自社のハードウェアを取り囲むように、強力なソフトウェアの構築を行っている。CUDAは自由に使用可能である一方、NVIDIAによって厳格に管理されるプロプライエタリ・ソフトウェアだ。この戦略はNVIDIAにとって利益をもたらしているが、他のハードウェアを使用してAI市場の一部を獲得しようとする他の企業やユーザーには障壁を生じさせている。

インテルらは後塵を拝する

チップ大手2社だけでなく、セレブラス・システムズやインテルといった他の企業も、この市場で頭角を現そうとしている。インテルのパット・ゲルシンガー最高経営責任者(CEO)は、最近の「AI Everywhere」イベントでAIチップ「Gaudi3」を予告したが、それについて明らかにされたことはほとんどなかった。Core Ultraのようなインテルがリリースした他の製品は、最新のものではなく、自信のなさの表れか、AMDの前世代と比較されていた。

Read more

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAIは東京オフィスで、日本での採用、法人セールス、カスタマーサポートなどを順次開始する予定。日本企業向けに最適化されたGPT-4カスタムモデルの提供を見込む。日本での拠点設立は、政官の積極的な姿勢や法体系が寄与した可能性がある。OpenAIは法人顧客の獲得に注力しており、世界各地で大手企業向けにイベントを開催するなど営業活動を強化。

By 吉田拓史
アドビ、日本語バリアブルフォント「百千鳥」発表  往年のタイポグラフィー技法をデジタルで再現

アドビ、日本語バリアブルフォント「百千鳥」発表 往年のタイポグラフィー技法をデジタルで再現

アドビは4月10日、日本語のバリアブルフォント「百千鳥」を発表した。レトロ調の手書き風フォントで、太さ(ウェイト)の軸に加えて、字幅(ワイズ)の軸を組み込んだ初の日本語バリアブルフォント。近年のレトロブームを汲み、デザイン現場の様々な要望に応えることが期待されている。

By 吉田拓史