Nvidia, A100 80GB GPUを発表

Nvidiaは、AIやML研究からエンジニアリングまで、幅広い用途でスーパーコンピューティング性能を新たなレベルに引き上げることを目的とした新しいA100 80GB GPUで、これまでのスーパーコンピューティングGPUのメモリを2倍にしたと発表した。

新しいA100 80GB GPUは、初代A100 40GB GPUの発売からわずか半年後に発売され、NvidiaのDGX A100およびDGX Station A100システムで利用できると、同社は11月16日にハイパフォーマンスコンピューティングのSC20で発表した。

A100 80GBには第3世代のテンソルコアが搭載されており、新フォーマットTF32で前世代のVoltaの最大20倍のAIスループットを実現するほか、HPC向けに2.5倍のFP64、AI推論向けに20倍のINT8、BF16データフォーマットのサポートを提供する。また、毎秒2TB以上のメモリ帯域幅を持つ高速なHBM2e(高帯域幅メモリ)や、分離インスタンスあたりのメモリを2倍にするNvidiaのマルチインスタンスGPU(MIG)技術を搭載し、各10GBのMIGを最大7個まで提供する。また、第3世代のNVlinkとNVswitch機能も搭載しており、前世代のインターコネクト技術の2倍のGPU間帯域幅を提供し、データ集約的なワークロードのGPUへのデータ転送を毎秒600ギガバイトまで高速化している。

HBM2e技術を搭載した新しいA100は、毎秒2テラバイト以上のメモリ帯域幅を実現し、A100チップにデータを素早く供給することができ、スーパーコンピューティングのパフォーマンスを向上させる。

Nvidiaによると、この新しいGPUを搭載したシステムは、Atos、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Inspur、Lenovo、Quanta、Supermicroなどのベンダーから2021年の前半に発売される予定。

また、月曜日にNvidiaによって発表された新しいDGXステーションA100マシンは、同社が箱の中のAIデータセンタースーパーコンピュータと呼んでいる。ペタスケールの統合AIワークグループサーバーとして販売されているが、これはもともと2017年にデビューしたデバイスの第2世代である。2.5ペタフロップスのAI性能を持つ「DGX Station A100」は、企業のオフィスや研究施設、ラボ、ホームオフィスで働くチームの機械学習やデータサイエンスのワークロードを対象としている。

また、Nvidiaは、2021年第2四半期に発売を予定しているインターコネクト製品の新製品「Mellanox NDR 400 gigabit-per-second InfiniBand」ファミリーを発表した。ラインナップは、アダプタ、データプロセッシングユニット(DPU、NvidiaのスマートNIC)、スイッチ、ケーブルなど。価格は明らかにされなかった。現在利用可能なHDR 200Gbps InfiniBandデバイスと比較して、明らかにスループットが2倍に跳ね上がることに加え、Nvidiaは、総所有コスト(TCO)の向上、ネットワーク内コンピューティング機能の強化、スケーリング機能の向上を約束している。

「HPCやAI研究で最先端の成果を達成するためには、最大のモデルを構築する必要があるが、これらはこれまで以上に多くのメモリ容量と帯域幅を必要とする」とNVIDIAの応用ディープラーニング研究担当ヴァイスプレジデントのブライアン・カタンザロは述べている。「A100 80GB GPUは、わずか半年前に発表された前身モデルの2倍のメモリを提供し、毎秒2TBの壁を打ち破り、研究者が世界で最も重要な科学的およびビッグデータの課題に取り組むことを可能にする」。

AIトレーニングでは、DLRMのようなレコメンダーシステムモデルには、何十億人ものユーザーと何十億もの製品を表す膨大なテーブルがあり、A100 80GBは最大3倍のスピードアップを実現しているため、企業はこれらのモデルを迅速に再トレーニングして、精度の高いレコメンデーションを提供することができるという。

Nvidiaのアクセラレイテッド・コンピューティング製品管理担当シニア・ディレクターであるParesh Kharyaは、最新のA100 80GB GPUは、Nvidiaのソフトウェア・プラットフォームのすべての最適化と組み合わせることで、ユーザーに劇的なパフォーマンスと効率の向上を提供するとHPC Wireに対し述べた。より大規模なシミュレーションでは、同社が半年前に発表したA100モデルと比較して1.8倍のパフォーマンスを実現しているという。

A100 80GB GPUのメモリ増量の一環として、従来モデルの2倍となる400ワットの 熱設計パラメータ(TPD)を搭載するようになったとKharyaは述べている。SXM4フォームファクターのGPUで、4ウェイと8ウェイのHDXボード構成が用意されている。顧客はこれまで通りPCIeフォームファクターのA100 GPUを手に入れることができるが、40GBのメモリしか搭載しない。

これらは、当社のHGXプラットフォームの一部としても利用可能な同じGPUだ。また、システムメーカーのパートナーは、これらのHGXシステムをベースにサーバを設計している。また、あらゆる種類のフォームファクタでより幅広く利用できるようになることも期待できる。

Nvidiaにとって、新しいGPUは、フルスタックベンダーとしての同社のアプローチの一部である、とKharyaは述べている。「我々は基本的に、スタックのどのレベルでも顧客に対応する準備ができている。DGXシステムとSuperPODは、完全なターンキーソリューションでスタックの最上位に位置している。しかし、顧客が購入して別のレベルで私たちと関わりたい場合は、これらの新製品を使用してHGXベースボードレベルで顧客と関わる」。

新しいハードウェアの価格は、Nvidiaのシステムパートナーによって決定されるという。