AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る

Fastlyは、LLMのAPI応答をキャッシュすることで、コスト削減と高速化を実現する「Fastly AI Accelerator」の提供を開始した。キップ・コンプトン最高プロダクト責任者(CPO)は、類似した質問への応答を再利用し、効率的な処理を可能にすると説明した。さらに、コンプトンは、エッジコンピューティングの利点を活かしたパーソナライズや、エッジにおけるGPUの経済性、セキュリティへの取り組みなど、FastlyのAI戦略について語った。

AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る
2024年11月5日、 東京都港区のFaslty Japan オフィスにて、Fastlyのキップ・コンプトン最高プロダクト責任者(CPO)。撮影:吉田拓史

要約

Fastlyは、LLMのAPI応答をキャッシュすることで、コスト削減と高速化を実現する「Fastly AI Accelerator」の提供を開始した。キップ・コンプトン最高プロダクト責任者(CPO)は、類似した質問への応答を再利用し、効率的な処理を可能にすると説明した。さらに、コンプトンは、エッジコンピューティングの利点を活かしたパーソナライズや、エッジにおけるGPUの経済性、セキュリティへの取り組みなど、FastlyのAI戦略について語った。

Fastly AI Accelerator

10月6日に東京・原宿で開催された同社の年次イベントFastly Yamagoya2024のため来日した、コンプトンにFastly AI Acceleratorと同社のAI展開について聞いた。

「大規模言語モデル(LLM)は『大きい』。OpenAIやGeminiを使うと都度都度費用がかかり、また、何か処理を依頼するたびに時間がかかる。ChatGPTのチャットを使ったことがある人ならわかると思うが、実際に時間がかかる」とコンプトンは言った。「APIの応答をキャッシュすることで、LLMに何度も同じ質問をする必要がなくなり、コストを削減できる。そして、より速いエクスペリエンスを提供する」

「私がこの製品のデモをするとき、多くの場合、キャッシュは0.5秒で応答することができるが、LLMでは完全な応答に6~8秒かかることも珍しくない。大きなスピードの違いだ」

「OpenAIのサポートから始め、私たちはその後Geminiのサポートを追加。ベータ版を使用している多くの人が、より多くのモデルのサポートを求めていたためだ」「ベータ版のリリースにより、実際にお客様にご利用いただく中で、我々は貴重な知見を得ることができた。すでにGeminiを加えるという拡張に成功し、また、お客様のユースケースに合わせてチューニングすることもできた」

Fastly AI Acceleratorは、パフォーマンス向上とコストを削減するために設計された、Open AI APIのためのセマンティック・キャッシュ・ソリューションであり、OpenAI Chat completion API のレスポンスをキャッシュする。その中核的な機能がセマンティック・キャッシングである。Fastlyは6月に「Fastly AI Accelerator」の提供開始を発表していた。

「何が質問されているかを判断するためにベクトルデータベースを使う。そして、その質問がどの程度似ているかを調べ、もし十分に似ていれば、マッチしているとみなし、キャッシュを利用する」

セマンティックキャッシュは、通常のキャッシュと同じように、過去の応答を再利用して、現在のリクエストに答える技術。違いは、どの応答を再利用するかを決める方法にある。通常のキャッシングでは、リクエストがURL、トークン、またはハッシュと完全に一致する場合にのみ、過去の応答を再利用する。一方、セマンティックキャッシュでは、AIの埋め込み(エンベディング)を活用することで、意味的に類似したリクエストに対する過去の応答を再利用できる。

Announcing the AI Accelerator Beta!
We’re excited to announce the Fastly AI Accelerator, a transparent API proxy for AI platforms designed to reduce latency and lower costs through semantic caching! We’re starting with OpenAI, but more platforms are in the works. Semantic caching, like regular caching, uses a previous response to serve a current request. The difference comes in how we decide which response to use. In regular caching, the request must match the URL, token, or hash to use a previous response. With semantic caching,…

「最も一般的なユースケースは、チャットボットを活用するカスタマーサポートのウェブサイト。バーチャルアシスタントを使用し、同じ質問がなされる度に料金が発生するようなウェブサイトであれば、大企業の従業員をサポートする社内向けサイトでも、社外向けのサイトでもその実装と使用コストを削減し、パフォーマンスを向上させることができる」「エッジを利用してより高いパフォーマンスと低コストを実現するというアイデアについては、私たちは他の分野でも行っている。これをAIにも持ち込んだ」

エッジサーバーにGPUを導入する可能性は?

エッジサーバーにGPUを配置するような未来はありうるか。「エッジでのモデルのトレーニングは想定していない。エッジで推論を実行した方が理にかなっている可能性がある。LLMはかなり大きいため、(レスポンスを)キャッシュする方が理にかなっていると考えている」

「現在、エッジでGPUを展開していない理由は2つある。第一にキャッシュできるため、そもそも使う必要がないということだ。キャッシュは効率的だ」

コンプトンは、動画のトランスコーディングはコストがかかるため、多くの顧客は一度実行してキャッシュし、繰り返し実行するのを避けたいと考えていると指摘した。例えば、4KのRAW映像から1080p 60 FPSや720p 30 FPSの動画を生成し、それをエッジにキャッシュする。データを保存しておく方が、都度送信するよりも安価なため、セントラルクラウドでトランスコーディングを行い、その後キャッシュすることになるのだという。

もう一つは、GPUの経済性がかなり急速に変化していることだ、と言った。「レンタル市場では、すでにかなり急激なコストの下降と上昇が見られたと思う。エッジは、セントラルクラウドとはまったく異なる場所だ。なぜなら、1つの場所にトラフィックが集中しないからだ。したがって、エッジにGPUを導入した場合、それらを十分に活用しながら、必要に応じてお客様がアクセスできるようにするのは困難だ」

「それがどうなるかは、これから推移を追ってみたい。すでに導入している処理能力で AI ユースケースをサポートできると確信している。大量の GPU を導入して使用率が低い場合、コスト構造に悪影響を及ぼし、他のお客様がそれを支払うことになるかもしれない。GPUは初期費用と消費電力が非常に高額だ。これまでのユースケースでは、汎用プロセッサでサポートできた」

ただ、準備はできているという。「我々がエッジサーバーを配置している場所では、電力と冷却の面で GPU を追加するための余裕を持たせている。エッジでの有用性が明らかになるまでその技術を展開したくはない。キャッシュが非常に効率的であるためだ。また、たとえば、ビデオの低解像度バージョンを生成する場合は、高解像度バージョンがエッジに必要となる。この場合、データストアに 30 ~ 40% のストレージを追加すれば、ユーザーはより高いパフォーマンスを得ることができる」。

パーソナライズされたレコメンドをエッジで行う

コンプトンは、メトロポリタン美術館のレコメンデーション(推薦)をエッジサーバーで活用した例に言及した。Fastlyは、ユーザーに近いエッジサーバーで推薦処理を実行し、高速なレコメンドを実現した。チームは特殊なアルゴリズムを用いて、コレクションデータを効率的に表現する検索を構築。さらに、検索のコストを、エッジサーバーのパフォーマンス内に収まるように工夫を施した。

「エッジでコンテンツをパーソナライズすることには、大きな合理性がある。なぜなら、ユーザーはパフォーマンスを求めている。パーソナライズされた体験を提供するウェブサイトでは、ユーザーの興味を推測している。過去の購入履歴や、応援しているスポーツチームなどをもとにしている。ユーザーによって表示されるページは異なるものになる」

「私たちは(メトロポリタン美術館の)すべての画像をエッジにキャッシュした。だから、(もし東京でそのサイトを見たとき)あたかも東京のデータセンターからサーブされたかのような速さの体験を味わえる。先ほど確認したところ、(取材場所の都心に対して)最も近いPOP(Point of Presence)から6ミリ秒で配信できる。パーソナライゼーションを計算するためには、クラウドにコンタクトするのは避けたいものだ」

「私たちは、お客様が妥協することなく最高のエクスペリエンスを提供できるようにすることについて話し合った。私たちにとって、それは設計段階から高速でセキュアであることを意味する」

CDNが果たす役割

現在、AIコンピューティングはデータセンターに集中しているが、オンデバイスAIがテストされている。FastlyのようなCDNのプレイヤーはこの中間に属する。AIコンピューティングにおいてCDNはどのようなポジションを占めるのか? 

「私はAppleの戦略が際立っていると考えている。Apple Intelligenceは、アーキテクチャについてかなり公開されている。そして、最新の携帯電話にはAIモデルが搭載されているが、クラウドではより大きなモデルが利用できるようになっている。我々は今後、(デバイスとクラウドにまたがる)ハイブリッドモデルを目にすることになるだろう」

「私たちは、GoogleやAppleと協力してプライバシー保護に取り組んでいる。具体的には、GoogleのプライバシーサンドボックスとAppleのプライベートリレーを連携させているのだ。これにより、ユーザーはプライバシーを確保しながら、インターネットを利用することができる。デバイスでのモデルの実行ももちろん行われる可能性があるが、最も洗練されたモデルは、データセンターで実行され続けることになるだろう」

2024年11月5日、 東京都港区のFaslty Japan オフィスにて、Fastlyのキップ・コンプトン最高プロダクト責任者(CPO)。撮影:吉田拓史

「どちらにも長所と短所があるでしょう。そして、Appleはその両方をどのように併用し、どのように管理していくのかを明確に示していると思う。より大きなモデルをデータセンターで集中的に利用する。私はそれが他の多くの企業が行き着く場所だと思う」

ところで、もうひとつ興味深い例がある、という。「トレーニング・データセットを高速に処理し、複数のクラウドの複数の場所でモデルのトレーニングに使いたいというお客様がいる。一部のお客様は、データ設定をライセンス供与して、他の人がモデルをトレーニングできるようにしている。そのため、大量のデータに非常に高速にアクセスする必要があり、CDN がそれを提供するのに適している。

「非常に大きな画像ライブラリがあり、さまざまな環境で複数のモデルをトレーニングしたい場合、CDN はそれを処理する優れた方法だ。CDNはAI の世界で依然として重要な問題の解決に役立つ」

「パフォーマンスは依然として重要だ。セキュリティもコスト効率も必要で、グローバルに拡張できることも必要だ。そのため、AI の実践者は、他の開発者と同じように、作業をサポートするために Fastly サービスを使い始めていることがよくある」

エッジにおけるAI の将来

エッジにおけるAI の将来とはどのようなものか?「セキュリティ、パフォーマンス、コスト、パーソナライゼーションは依然として重要だと考えている。私たちは、開発者と、お客様と協力して継続的にソリューションを構築し、改善することを重視している」

「Fastly AI Acceleratorは、お客様が抱える『より速く、より安く』という課題から生まれたものだ。エンジニアも、より速く、より安く開発できればと考えているのではないだろうか。 私たちが提供するFastly AI Acceleratorは、お客様のニーズに応えるだけでなく、エンジニアの開発効率向上にも貢献できると信じている」

「私たちは先を見据えて開発者にとても優しいプラットフォームを提供している。Fastly AI Accelerator のようなソリューションをプラットフォームに追加することで、お客様がFastlyのプラットフォームを活用して課題解決を実現する支援に注力している」

Read more

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史
Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Google Cloudは、年次イベント「Google Cloud Next Tokyo '24」で、大規模言語モデル「Gemini」を活用したAIエージェントの取り組みを多数発表した。Geminiは、コーディング支援、データ分析、アプリケーション開発など、様々な分野で活用され、業務効率化や新たな価値創出に貢献することが期待されている。

By 吉田拓史