クアルコムがAIチップの主要顧客にメタを獲得し損ねた理由

クアルコムがAIチップの主要顧客としてメタを獲得できなかった経緯を米テクノロジー誌The Informationは報じている。

2019年、携帯電話向けSoCの市場リーダーである同社は、そのエネルギー効率の専門知識を活かして、データセンターで使用される人工知能(AI)チップの急成長市場に参入する野望を宣言した。

クアルコムはメタを口説き落とし、メタ(当時Facebook)をクアルコムの最初のAIデータセンターチップ、AI 100の主要顧客とすることに成功した。

クアルコムが2020年秋にこのチップをリリースした後、メタは、メタがこれまで使ってきたチップや、メタがAIコンピューティング業務を処理するために社内開発した専用チップなど、さまざまな代替品と比較テストした。

クアルコムのチップは消費電力1ワットあたりで最高の性能を記録し、好成績を収めたという。メタのテスト後の2021年9月の時点で、AI 100チップはAIチップの性能測定に使われる業界標準のMLPerfベンチマークで、電力効率における複数の上位を獲得していた。

図1:最も電力効率の高いAI推論ソリューションであることを主張するクアルコムのスライド。出典:クアルコム。

しかし、2021年春までにメタはクアルコムのチップの使用を断念した。「メタは、クアルコムのAIチップに付属するソフトウェアが、企図するタスクでチップから最高の性能を引き出せるほど成熟しているかどうかを疑問視した。メタは選択肢を検討する中で、既存のチップにこだわることにした」とThe Informationのスティーブン・ネリスは記述している。

クアルコムは、膨大な量のデータで訓練されたAIモデルを使用してリアルタイムで意思決定を行う推論コンピューティング作業を、AI 100で処理することを意図していた。メタでは、推薦モデルに基づいてユーザーに何を表示するかをミリ秒単位で決定することが多い。

うまく機能させるためには、学習させたモデルを実行するハードウェアに最適化する必要がある。最適化が行われないと、モデルはハードウェアの性能のほんの一部しか発揮できず、高価な電力を浪費してしまうかもしれない。しかし、モデルを最適化することは、開発者にとって多くの時間を消費することになる。

開発者は、さまざまな言語で書かれたコードを最適化し、基盤となるチップに結合することができるソフトウェアを好むが、NVIDIAのソフトウェアはこのタスクに長い間取り組み、莫大なエンジニアリング投資を行い、付随するツールチェーンが豊富だ。

AI 100チップは、AIデータセンターチップの圧倒的なリーダーであるNvidiaに対抗する試みである。NVIDIAの優位性は、チップだけでなく、AI業界の現在のゴールドスタンダードであるソフトウェア「CUDA」にも立脚している。

クアルコムは、AI 100の顧客としてFoxconn Industrial Internetを発表しており、セキュリティカメラや交通カメラのビデオ映像を分析するために設計されたサーバーにこのチップを使用している。