金満Metaですら逡巡する「AIデータセンター」の莫大なコスト
「AIデータセンター」の需要が急成長している。しかし、AI化と運用に要するコストは極めて高く、流行りの大規模言語モデル(LLM)は、膨大な炭素排出を伴う。重厚長大型の軍拡競争には限界があるのかもしれない。
「AIデータセンター」の需要が急成長している。しかし、AI化と運用に要するコストは極めて高く、流行りの大規模言語モデル(LLM)は、膨大な炭素排出を伴う。重厚長大型の軍拡競争には限界があるのかもしれない。
生成AIのゴールドラッシュは、「スコップ」を売るNVIDIAのセンセーションを引き起こし、CEOであるジェンスン・フアンを時代の寵児に変貌させた。ゴールドラッシュの恩恵を受けそうなのはNVIDIAだけではない。データセンター業界もその1つだ。
データセンター大手のJLLが4月に発表した報告書は、ChatGPTやBardのような生成AIアプリケーションの成長がデータセンターの需要を加速させ、液体冷却を用いた高密度な施設の推進に役立つと述べている。
JLLのアジア太平洋地域データセンター担当マネージング・ディレクター、クリス・ストリートは、5月、TechWireAsiaに対するインタビューで、AI応用を支えるシステムが要求する電力密度の増加が見られ、計算能力の増大は特に旧式の施設にとって挑戦をもたらす、と語った。このため多くの組織がクラウドサービスへの移行を余儀なくされている。
ストリートによると、再利用できる施設もあれば、アップグレードにかなりの労力が必要で、それに見合わない施設もあるという。再利用可能な施設では、液浸や液冷などの最新冷却技術を導入して、電力の高密度化の問題に対処することも可能だそうだ。
ストリートによると、必要とされるAIの要件が一定のレベルを超えた場合、運用コストを下げるため、AIシステムの十分な規模を確保するべきだが、莫大な初期投資はプレッシャーになりうるという。しかし、要件が小さい企業には、高負荷のAI応用を処理するためにプライベートおよびパブリッククラウドインフラを使用するなど、いくつかのオプションがあるという。