「安いAI」を巡る熾烈な競争が勃発
ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。
ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、今のところ、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。
対話型AIは高い。ChatGPTが行うLLMの展開方法では、1回の応答で数セントかかる、と言われている。AI研究所のOpenAIがChatGPTを実行するためのコンピューティングパワーのコストは、1日あたり10万ドルという試算もある。Googleの親会社Alphabetの会長であるジョン・ヘネシーは、同社のチャットボット「Bard」のようなAIの応答は、通常のキーワード検索よりも10倍以上のコストがかかりうると主張した。
このため、いかにAIを安くするかが鍵となっている。次の要所は、LLMのトレーニングと推論の両方のコストを削減して、あらゆるアプリケーションで使えるようにすることである。
OpenAIは、早くもこの「安いAI」をめぐる競争に先鞭をつけた。1日、ChatGPTと音声文字起こしAIのWhisperがAPIで利用可能になったと発表したが、「システム全体の最適化により、12月以降ChatGPTは90%のコスト削減を達成した」と主張。価格は1,000トークンあたり0.002ドルで、既存のGPT-3.5モデルよりも10倍安いという。
新興勢力も出てきている。先週、スタンフォード大学AIラボの研究生Ying Sheng、カリフォルニア大学バークレー校のLianmin Zheng、および他のAI研究者数人が、GPT-3などのLLMを非常に限られたGPUメモリで実行するための生成エンジン、FlexGenを発表した。Ying ShengらはMeta AIの無償LLM、OPT-175Bモデルを16GBのGPU1台で動かすことに成功したという。
今回の研究では、高スループットの生成推論を実現するための効率的なオフロード(負荷軽減)戦略に着目している。FlexGenは、GPU、CPU、ディスクの計算を統合することで、ハードウェアリソースに制約があっても柔軟に構成することができる。FlexGenのアクセラレーションによる大規模モデルは、1,750億のパラメータで1トークン/秒とまだ遅く見えるが、クライアントでの計算の完了を実現した事自体に大きな価値があるだろう。
先週、コペンハーゲンIT大学のShyam SudhakaranとMiguel González-Duqueらは、AIでスーパーマリオのステージを生成する「MarioGPT」を発表した。「土管多め」「敵少なめ」などの自然言語で未知のコースが作ることができる。このツールもまた、単一のGPUで学習可能な軽量化されたGPT-3モデルに基づいて構築されている。
MarioGPTが採用する、軽量化プロセスの「Distillation(蒸留)」は、ここ数年で人気を博している。これは、大きく複雑なモデルの予測を、小さなモデルに還元することを意味する。例えば、GoogleのBERTの小型版であるDistilBERTは、BERTの性能レベルの95%を達成しながら、パラメータが40%少なく、60%速く実行される。
現在、各社が発表しているモデルのほとんどは、事前学習済みだ。これにより、都度トレーニングを行う必要がなく微調整でモデルを最適化できるため、計算資源を節約することになる。ただ、Trasnformerの学習自体は、依然として恐ろしいほどのコストを要し、テック大手だけが許容可能とも言われる。
一部のAIプラットフォームは、こうしたモデルのスケーリング問題を解決する手法に常に取り組んでいる。Google Brainの元社員Aidan GomezとNick Frosstが設立したカナダのスタートアップCohere AIは、昨年Googleと提携し、強力なLLMのためのプラットフォームを構築した。Cohereは、通常必要とされるインフラストラクチャやMLの深い専門知識なしに、強力なLLMを扱うためのプラットフォームを開発者に提供することを目指している。論文では、Google Cloudが最近発表したCloud TPU v4 Pods上に展開したFAXフレームワークが、LLMを数千億パラメータに拡張するという課題にどのように対処しているかをCohereの技術者が示している。
昨年12月、Amazon SageMakerは、39.7%の高速化を含む多くの最適化を行う「Sharded Data Parallelism(シャーデッドデータ並列処理)」と呼ばれる新しい学習技術を発表した。データ並列化のようなコンセプトは、トレーニング時間とコストを削減しながら、エネルギー消費が少なく、市場投入までの期間を短縮するという、一石二鳥の効果がある。