Amazon、クラウドでの機械学習トレーニング用カスタムチップ「Trainium」を発表

Amazonは1日、AWS Trainiumを発表した。これは、同社が費用対効果の高い機械学習モデルのトレーニングをクラウド上で提供するためにカスタム設計されたチップ。これは、インテルの新しいHabana Gaudiプロセッサを搭載したHabana GaudiベースのAmazon Elastic Compute Cloud (EC2) インスタンスが、機械学習トレーニングのために特別に構築されるのに先駆けて発表されたものである。

Amazon、クラウドでの機械学習トレーニング用カスタムチップ「Trainium」を発表

Amazonは1日、AWS Trainiumを発表した。これは、同社が費用対効果の高い機械学習モデルのトレーニングをクラウド上で提供するためにカスタム設計されたチップ。これは、インテルの新しいHabana Gaudiプロセッサを搭載したHabana GaudiベースのAmazon Elastic Compute Cloud (EC2) インスタンスが、機械学習トレーニングのために特別に構築されるのに先駆けて発表されたものである。

AWSのCEOであるAndy Jassyは、Amazonのre:Inventカンファレンスでの基調講演の中で、「機械学習トレーニングの価格性能を押し上げ続けたいと考えているので、独自のチップに投資しなければならないことはわかっている」と述べた。「AWSには、チップのイノベーションと相まって、比類のないインスタンスの配列がある」。

Amazonは、Trainiumがクラウド上の機械学習インスタンスの中で最もテラフロップ数が多いと主張している。Amazonは、標準的なAWS GPUインスタンスと比較して、スループットが30%高く、コストパーイナーシャが45%低いと見積もっている。

Trainiumが2021年後半にEC2インスタンスとして、またAmazonのフルマネージド機械学習開発プラットフォームであるSageMakerで利用できるようになると、GoogleのTensorFlow、FacebookのPyTorch、MxNetなどの一般的なフレームワークをサポートすることになる。さらにAmazonは、機械学習推論のための同社のクラウドホスト型チップであるInferentiaと同じNeuron SDKを使用すると述べている。

「Inferentiaは、MLインフラストラクチャコストの最大90%を占める推論コストに対応していましたが、多くの開発チームは、固定のMLトレーニング予算によって制限されている」とAWSはブログ記事で書いている。「これでは、モデルやアプリケーションを改善するために必要なトレーニングの範囲や頻度が制限されてしまいる。AWS Trainiumは、クラウド上でMLトレーニングのための最高のパフォーマンスと低コストを提供することで、この課題に対応している。TrainiumとInferentiaの両方を利用することで、顧客はトレーニングワークロードのスケーリングから高速推論の展開まで、エンドツーエンドでMLコンピュートを利用できるようになる」

ベンチマーク結果がないため、Trainiumの性能がGoogle Cloud PlatformでホストされているGoogleのテンソルプロセッシングユニット(TPU)と比較してどうかは不明だ。Googleによると、第4世代のTPUは、第3世代のTPUの2倍以上のマトリクス乗算テラフロップスを提供するという。

機械学習の導入は、高価なハードウェアの必要性によって制約を受けてきた。実際、MITのリサーチサイエンティストのニール・トンプソンらによる報告書は、機械学習が計算限界に近づいている可能性があることを示唆している。

OpenAIは、GPT-3言語モデルの訓練に1200万ドルを費やしている。Googleは、11の自然言語処理タスクのために最先端の技術を再定義した双方向変換モデルであるBERTの訓練に推定6,912ドルを費やしたと報告されている。

アマゾンは、企業での需要が高まるにつれ、AIや機械学習のトレーニングや推論サービスへの傾倒が進んでいる。ある推計によると、世界の機械学習市場は2017年に15億8000万ドルと評価され、2024年には208億3000万ドルに達すると予測されている。

Amazonは11月、AlexaとRekognitionのためのコンピューティングの一部をInferentiaを搭載したインスタンスに移行したと発表し、Nvidiaのチップから離れながら、作業を高速化して安価にすることを目指していた。当時、同社はAlexaの一部の作業をInferentiaに移行したことで、レイテンシが25%向上し、コストが30%削減されたと主張していた。

計算資源がディープラーニングの制約に
ディープラーニングの進歩は計算能力の向上に大きく依存していることを示している。この依存度を考慮すると、現在の路線での進歩は急速に経済的、技術的、環境的に持続不可能になる可能性がある。継続的な進歩には、劇的に計算効率の高い方法が必要となり、ディープラーニングの改善、他の機械学習方法への移行からもたらされる。

Read more

AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る

AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る

Fastlyは、LLMのAPI応答をキャッシュすることで、コスト削減と高速化を実現する「Fastly AI Accelerator」の提供を開始した。キップ・コンプトン最高プロダクト責任者(CPO)は、類似した質問への応答を再利用し、効率的な処理を可能にすると説明した。さらに、コンプトンは、エッジコンピューティングの利点を活かしたパーソナライズや、エッジにおけるGPUの経済性、セキュリティへの取り組みなど、FastlyのAI戦略について語った。

By 吉田拓史
宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史
Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Geminiが切り拓くAIエージェントの新時代:Google Cloud Next Tokyo '24, VPカルダー氏インタビュー

Google Cloudは、年次イベント「Google Cloud Next Tokyo '24」で、大規模言語モデル「Gemini」を活用したAIエージェントの取り組みを多数発表した。Geminiは、コーディング支援、データ分析、アプリケーション開発など、様々な分野で活用され、業務効率化や新たな価値創出に貢献することが期待されている。

By 吉田拓史