「安いAI」を巡る熾烈な競争が勃発

ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。

「安いAI」を巡る熾烈な競争が勃発
Licensed under the Unsplash+ License

ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、今のところ、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。


対話型AIは高い。ChatGPTが行うLLMの展開方法では、1回の応答で数セントかかる、と言われている。AI研究所のOpenAIがChatGPTを実行するためのコンピューティングパワーのコストは、1日あたり10万ドルという試算もある。Googleの親会社Alphabetの会長であるジョン・ヘネシーは、同社のチャットボット「Bard」のようなAIの応答は、通常のキーワード検索よりも10倍以上のコストがかかりうると主張した。

このため、いかにAIを安くするかが鍵となっている。次の要所は、LLMのトレーニングと推論の両方のコストを削減して、あらゆるアプリケーションで使えるようにすることである。

OpenAIは、早くもこの「安いAI」をめぐる競争に先鞭をつけた。1日、ChatGPTと音声文字起こしAIのWhisperがAPIで利用可能になったと発表したが、「システム全体の最適化により、12月以降ChatGPTは90%のコスト削減を達成した」と主張。価格は1,000トークンあたり0.002ドルで、既存のGPT-3.5モデルよりも10倍安いという。

新興勢力も出てきている。先週、スタンフォード大学AIラボの研究生Ying Sheng、カリフォルニア大学バークレー校のLianmin Zheng、および他のAI研究者数人が、GPT-3などのLLMを非常に限られたGPUメモリで実行するための生成エンジン、FlexGenを発表した。Ying ShengらはMeta AIの無償LLM、OPT-175Bモデルを16GBのGPU1台で動かすことに成功したという。

今回の研究では、高スループットの生成推論を実現するための効率的なオフロード(負荷軽減)戦略に着目している。FlexGenは、GPU、CPU、ディスクの計算を統合することで、ハードウェアリソースに制約があっても柔軟に構成することができる。FlexGenのアクセラレーションによる大規模モデルは、1,750億のパラメータで1トークン/秒とまだ遅く見えるが、クライアントでの計算の完了を実現した事自体に大きな価値があるだろう。

先週、コペンハーゲンIT大学のShyam SudhakaranとMiguel González-Duqueらは、AIでスーパーマリオのステージを生成する「MarioGPT」を発表した。「土管多め」「敵少なめ」などの自然言語で未知のコースが作ることができる。このツールもまた、単一のGPUで学習可能な軽量化されたGPT-3モデルに基づいて構築されている。

MarioGPTが採用する、軽量化プロセスの「Distillation(蒸留)」は、ここ数年で人気を博している。これは、大きく複雑なモデルの予測を、小さなモデルに還元することを意味する。例えば、GoogleのBERTの小型版であるDistilBERTは、BERTの性能レベルの95%を達成しながら、パラメータが40%少なく、60%速く実行される。

現在、各社が発表しているモデルのほとんどは、事前学習済みだ。これにより、都度トレーニングを行う必要がなく微調整でモデルを最適化できるため、計算資源を節約することになる。ただ、Trasnformerの学習自体は、依然として恐ろしいほどのコストを要し、テック大手だけが許容可能とも言われる。

一部のAIプラットフォームは、こうしたモデルのスケーリング問題を解決する手法に常に取り組んでいる。Google Brainの元社員Aidan GomezとNick Frosstが設立したカナダのスタートアップCohere AIは、昨年Googleと提携し、強力なLLMのためのプラットフォームを構築した。Cohereは、通常必要とされるインフラストラクチャやMLの深い専門知識なしに、強力なLLMを扱うためのプラットフォームを開発者に提供することを目指している。論文では、Google Cloudが最近発表したCloud TPU v4 Pods上に展開したFAXフレームワークが、LLMを数千億パラメータに拡張するという課題にどのように対処しているかをCohereの技術者が示している。

昨年12月、Amazon SageMakerは、39.7%の高速化を含む多くの最適化を行う「Sharded Data Parallelism(シャーデッドデータ並列処理)」と呼ばれる新しい学習技術を発表した。データ並列化のようなコンセプトは、トレーニング時間とコストを削減しながら、エネルギー消費が少なく、市場投入までの期間を短縮するという、一石二鳥の効果がある。

参考文献

  1. Shyam Sudhakaran et al. MarioGPT: Open-Ended Text2Level Generation through Large Language Models. arXiv:2302.05981 cs.AI.
  2. Victor Sanh et al. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter.  arXiv:1910.01108 cs.CL.

Read more

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAIは東京オフィスで、日本での採用、法人セールス、カスタマーサポートなどを順次開始する予定。日本企業向けに最適化されたGPT-4カスタムモデルの提供を見込む。日本での拠点設立は、政官の積極的な姿勢や法体系が寄与した可能性がある。OpenAIは法人顧客の獲得に注力しており、世界各地で大手企業向けにイベントを開催するなど営業活動を強化。

By 吉田拓史
アドビ、日本語バリアブルフォント「百千鳥」発表  往年のタイポグラフィー技法をデジタルで再現

アドビ、日本語バリアブルフォント「百千鳥」発表 往年のタイポグラフィー技法をデジタルで再現

アドビは4月10日、日本語のバリアブルフォント「百千鳥」を発表した。レトロ調の手書き風フォントで、太さ(ウェイト)の軸に加えて、字幅(ワイズ)の軸を組み込んだ初の日本語バリアブルフォント。近年のレトロブームを汲み、デザイン現場の様々な要望に応えることが期待されている。

By 吉田拓史