「安いAI」を巡る熾烈な競争が勃発

ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。

「安いAI」を巡る熾烈な競争が勃発
Licensed under the Unsplash+ License

ChatGPTによって大規模言語モデル(LLM)の可能性が世に知らしめられた。しかし、今のところ、LLMはお金がかかりすぎる。次は、いかにAIを安くするか、だ。すでに熾烈な競争が繰り広げられている。


対話型AIは高い。ChatGPTが行うLLMの展開方法では、1回の応答で数セントかかる、と言われている。AI研究所のOpenAIがChatGPTを実行するためのコンピューティングパワーのコストは、1日あたり10万ドルという試算もある。Googleの親会社Alphabetの会長であるジョン・ヘネシーは、同社のチャットボット「Bard」のようなAIの応答は、通常のキーワード検索よりも10倍以上のコストがかかりうると主張した。

このため、いかにAIを安くするかが鍵となっている。次の要所は、LLMのトレーニングと推論の両方のコストを削減して、あらゆるアプリケーションで使えるようにすることである。

OpenAIは、早くもこの「安いAI」をめぐる競争に先鞭をつけた。1日、ChatGPTと音声文字起こしAIのWhisperがAPIで利用可能になったと発表したが、「システム全体の最適化により、12月以降ChatGPTは90%のコスト削減を達成した」と主張。価格は1,000トークンあたり0.002ドルで、既存のGPT-3.5モデルよりも10倍安いという。

新興勢力も出てきている。先週、スタンフォード大学AIラボの研究生Ying Sheng、カリフォルニア大学バークレー校のLianmin Zheng、および他のAI研究者数人が、GPT-3などのLLMを非常に限られたGPUメモリで実行するための生成エンジン、FlexGenを発表した。Ying ShengらはMeta AIの無償LLM、OPT-175Bモデルを16GBのGPU1台で動かすことに成功したという。

今回の研究では、高スループットの生成推論を実現するための効率的なオフロード(負荷軽減)戦略に着目している。FlexGenは、GPU、CPU、ディスクの計算を統合することで、ハードウェアリソースに制約があっても柔軟に構成することができる。FlexGenのアクセラレーションによる大規模モデルは、1,750億のパラメータで1トークン/秒とまだ遅く見えるが、クライアントでの計算の完了を実現した事自体に大きな価値があるだろう。

先週、コペンハーゲンIT大学のShyam SudhakaranとMiguel González-Duqueらは、AIでスーパーマリオのステージを生成する「MarioGPT」を発表した。「土管多め」「敵少なめ」などの自然言語で未知のコースが作ることができる。このツールもまた、単一のGPUで学習可能な軽量化されたGPT-3モデルに基づいて構築されている。

MarioGPTが採用する、軽量化プロセスの「Distillation(蒸留)」は、ここ数年で人気を博している。これは、大きく複雑なモデルの予測を、小さなモデルに還元することを意味する。例えば、GoogleのBERTの小型版であるDistilBERTは、BERTの性能レベルの95%を達成しながら、パラメータが40%少なく、60%速く実行される。

現在、各社が発表しているモデルのほとんどは、事前学習済みだ。これにより、都度トレーニングを行う必要がなく微調整でモデルを最適化できるため、計算資源を節約することになる。ただ、Trasnformerの学習自体は、依然として恐ろしいほどのコストを要し、テック大手だけが許容可能とも言われる。

一部のAIプラットフォームは、こうしたモデルのスケーリング問題を解決する手法に常に取り組んでいる。Google Brainの元社員Aidan GomezとNick Frosstが設立したカナダのスタートアップCohere AIは、昨年Googleと提携し、強力なLLMのためのプラットフォームを構築した。Cohereは、通常必要とされるインフラストラクチャやMLの深い専門知識なしに、強力なLLMを扱うためのプラットフォームを開発者に提供することを目指している。論文では、Google Cloudが最近発表したCloud TPU v4 Pods上に展開したFAXフレームワークが、LLMを数千億パラメータに拡張するという課題にどのように対処しているかをCohereの技術者が示している。

昨年12月、Amazon SageMakerは、39.7%の高速化を含む多くの最適化を行う「Sharded Data Parallelism(シャーデッドデータ並列処理)」と呼ばれる新しい学習技術を発表した。データ並列化のようなコンセプトは、トレーニング時間とコストを削減しながら、エネルギー消費が少なく、市場投入までの期間を短縮するという、一石二鳥の効果がある。

参考文献

  1. Shyam Sudhakaran et al. MarioGPT: Open-Ended Text2Level Generation through Large Language Models. arXiv:2302.05981 cs.AI.
  2. Victor Sanh et al. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter.  arXiv:1910.01108 cs.CL.

Read more

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史
Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Google Cloudは、年次イベント「Google Cloud Next Tokyo '24」で、大規模言語モデル「Gemini」を活用したAIエージェントの取り組みを多数発表した。Geminiは、コーディング支援、データ分析、アプリケーション開発など、様々な分野で活用され、業務効率化や新たな価値創出に貢献することが期待されている。

By 吉田拓史