AI開発競争は気候変動を加速させうる

Hewlett Packard EnterpriseのAIおよびHPC担当バイスプレジデントエヴァン・スパークス氏と、カーネギーメロン大学の教授(機械学習)アメート・タルウォーカー氏によると、AIが気候変動を加速させる可能性があると、今週開催されたSixFive Summitで語っている。

「ここ数年、計算負荷の高い機械学習(ML)技術が、業界内でますます目立つようになってきた。この結果、関連するエネルギー使用量の増加に関する懸念が高まり、これらのワークロードの二酸化炭素排出量とカーボンフットプリントに関する相関的な懸念が生じた」とスパークスは語った。彼は、AI/MLワークロードが今日の全コンピュート需要の半分以上を占めると推定している。

「大きな問題は、多くの注目されるMLの進歩が、驚異的な量の計算を必要とすることだ」と、HPEのAI研究者としても働くTalwalkarは、モデルの計算とエネルギー要件が2012年から30万倍以上増加したことを示す2018年のOpenAIのブログポストを引用して述べている。4年近く前の数字だが、似たトレンドが続いているようだ。

AI/MLワークロードの台頭は半導体の軍拡競争を促している。そして、Intel、NVIDIA、AMDなどの最新のCPU、GPU、AIアクセラレータは、競争に勝つために、かつてないほど多くの電力を引き出している。

これらのチップの熱設計電力(TDP)は、前世代に比べて実質的に2倍になり、NVIDIAのH100 SXM GPUの場合、最高で700Wに達している。AMDとIntelも似たようなものだ。AMDのMI250X GPUとIntelのHabana Gaudi2 AIアクセラレータは、いずれも全負荷時に約600Wの電力を必要とする。

1つのチップにこれだけのパワーを押し込めば、熱くなるのは当然だ。あまりの熱さに、ベンダーは今、冷却方法を真剣に見直している。液冷はもはやハイパフォーマンス・コンピューティング(HPC)やハイパースケーラー、PCマニアのためだけのものではない。