Google、コンピュータビジョンモデルBig Transferをオープンソース化

Google Brainは、深層学習型コンピュータビジョンモデル「Big Transfer (BiT)」の事前学習モデルとファインチューニングコードを公開した。これらのモデルは、一般に公開されている一般的な画像データセットを用いて事前に訓練されており、わずか数サンプルで微調整を行うだけで、いくつかのビジョンベンチマークにおいて最先端の性能を満たすか、それ以上の性能を発揮することができるという。

Google、コンピュータビジョンモデルBig Transferをオープンソース化

Google Brainは、深層学習型コンピュータビジョンモデル「Big Transfer (BiT)」の事前学習モデルとファインチューニングコードを公開した。これらのモデルは、一般に公開されている一般的な画像データセットを用いて事前に訓練されており、わずか数サンプルで微調整を行うだけで、いくつかのビジョンベンチマークにおいて最先端の性能を満たすか、それ以上の性能を発揮することができるという。

論文の共著者であるGoogle Brainの研究者Lucas BeyerとAlexander Kolesnikovは、最近のブログ記事で研究の概要を説明している。深層学習型ビジョンモデルの性能を向上させるために、チームは大規模な事前学習と、モデルサイズ、データセットサイズ、学習期間、正規化戦略、ハイパーパラメータの選択の効果を調査した。この研究の結果、チームはコンポーネントと訓練ヒューリスティックの「レシピ」を開発し、ObjectNetデータセットでは「前例のない80.0%の精度でトップ5に入る」など、様々なベンチマークで強力な性能を達成したと、BeyerとKolesnikovは主張する。

彼らは「Big Transferを使用すると、クラスごとにラベル付けされた画像をほんの一握りでも、誰もが興味のあるタスクで最先端のパフォーマンスを発揮できるようになる」と記述している。

ディープラーニングモデルはコンピュータビジョン、特に画像中の物体の認識において飛躍的な進歩を遂げてきた。この成功の鍵の一つは、ラベル付きの大規模なデータセットが利用できるようになったことだ。例えば、人気のあるImageNetデータセットには、21kの異なるオブジェクトクラスを含む1,400万枚以上のラベル付き画像が含まれている。しかし、画像は通常、人、ペット、家庭用品などの一般的なものを示している。産業用ロボットのような専門的なタスクのために同じような規模のデータセットを作成するには、法外な費用がかかったり、時間がかかったりする可能性がある。

このような状況では、AIエンジニアは、大規模な自然言語処理(NLP)モデルで人気のある戦略である伝達学習を適用することがよくある。ニューラルネットワークは、最初に大規模な一般的なデータセットで事前学習を行い、テストデータセットで一定レベルの性能を達成するまで学習する。その後、モデルはより小さなタスク固有のデータセットで微調整され、時にはタスク固有のオブジェクトの例が1つしかない場合もある。大規模なNLPモデルは、伝達学習を用いて、新しい最先端の性能レベルを設定している。

BiTでは、Googleの研究者はResNet-v2ニューラルアーキテクチャを使用した。事前学習のデータセットサイズの影響を調べるために、研究チームは、異なるデータセットで事前学習した3つのグループのモデルで実験を再現した。ILSVRC-2012の128万枚の画像で事前学習したBiT-Sモデル、ImageNet-21kの1420万枚の画像で事前学習したBiT-Mモデル、JFT-300Mの3億枚の画像で事前学習したBiT-Lモデルである。その後、モデルは微調整され、いくつかの一般的なベンチマーク(ILSVRC-2012、CIFAR-10/100、Oxford-IIIT Pet、Oxford Flowers-102)で評価された。

研究チームは、実験からいくつかの知見を得た。第一に、モデルサイズを大きくすることの利点は、より小さなデータセットでは減少し、より大きなデータセットでより小さなモデルを事前に訓練してもほとんど利点はない。第二に、バッチ正規化よりもグループ正規化の方が大規模モデルの性能が良かった。最後に、微調整時に高額なハイパーパラメータ探索を回避するために、研究チームはBiT-HyperRuleと呼ばれるヒューリスティックな手法を開発した。

Googleは、BiT-SグループとBiT-Mグループの中から、最も性能の良い事前学習モデルを公開している。しかし、JFT-300Mデータセットに基づくBiT-Lモデルは一切公開していない。

Photo by Google Cloud

Read more

AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る

AI時代のエッジ戦略 - Fastly プロダクト責任者コンプトンが展望を語る

Fastlyは、LLMのAPI応答をキャッシュすることで、コスト削減と高速化を実現する「Fastly AI Accelerator」の提供を開始した。キップ・コンプトン最高プロダクト責任者(CPO)は、類似した質問への応答を再利用し、効率的な処理を可能にすると説明した。さらに、コンプトンは、エッジコンピューティングの利点を活かしたパーソナライズや、エッジにおけるGPUの経済性、セキュリティへの取り組みなど、FastlyのAI戦略について語った。

By 吉田拓史
宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

宮崎市が実践するゼロトラスト:Google Cloud 採用で災害対応を強化し、市民サービス向上へ

Google Cloudは10月8日、「自治体におけるゼロトラスト セキュリティ 実現に向けて」と題した記者説明会を開催し、自治体向けにゼロトラストセキュリティ導入を支援するプログラムを発表した。宮崎市の事例では、Google WorkspaceやChrome Enterprise Premiumなどを導入し、災害時の情報共有の効率化などに成功したようだ。

By 吉田拓史
​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

​​イオンリテール、Cloud Runでデータ分析基盤内製化 - 顧客LTV向上と従業員主導の分析体制へ

Google Cloudが9月25日に開催した記者説明会では、イオンリテール株式会社がCloud Runを活用し顧客生涯価値(LTV)向上を目指したデータ分析基盤を内製化した事例を紹介。従業員1,000人以上がデータ分析を行う体制を目指し、BIツールによる販促効果分析、生成AIによる会話分析、リテールメディア活用などの取り組みを進めている。

By 吉田拓史