「官僚主義」と揶揄されたGoogleが一転してチャットボットを一般公開へ

GoogleはAIベースのチャットボットを一般公開する。検索とチャットボットのカニバリズムに苦しんでいるように見えたが、ChatGPTのセンセーションが同社の豹変に影響したことは否定できないだろう。


Googleは6日、言語モデルLaMDAを使用した対話AIサービス「Bard」を「信頼できるテスター」に提供し、今後数週間でより広く公開することを発表した。同社は、まずLaMDAの軽量版を公開する。

軽量版の応答が品質、安全性、現実の情報に基づいた高い水準を満たしていることを確認するつもりだ、とスンダー・ピチャイCEOは書いている。軽量版は、必要な計算量が格段に少ないため、より多くのユーザーに対して提供が可能だという。

同社は、明確な答えがひとつもないようなクエリ(質問)に対して、ストーリー性のある回答を提供するためにシステムを利用するなど、近いうちにLaMDAを検索結果に統合する計画を表明した。スンダーは、LaMDAを始めとする大規模言語モデル(LLM)に他の企業が接続できるようなAPIを開発中であると述べている。

これは、これまでのGoogleの方針の大転換である。Googleは検索と対話AIのカニバリズムに苦しんでいるように見えたが、ChatGPTのセンセーションが意思決定の変化に影響したのかもしれない。

GoogleはChatGPTに対抗するために「金のなる木」の検索を殺せるか?
ChatGPTが検索を脅かしていると言われるが、Googleには強力な対抗馬が2つもある。しかし、上場企業のGoogleは毎年数兆円を稼ぐ「金のなる木」を失うリスクを許容できるだろうか。イノベーションのジレンマは「検索の20年選手」にも当てはまるのかもしれない。
ChatGPTブームが対話型AIをめぐる大決戦を引き起こした
ChatGPTのブームで大規模言語モデル(LLM)をチャットボットとして商業化する競争が急加速した。先行するMicrosoftを追って、腰の重かったGoogleが動き、新興企業も雨後の筍のように現れている。大決戦の模様だ。

LaMDAは対話に特化したTransformerベースのLLMの1つで、最大1370億のパラメータを持ち、1.56兆語の公開対話データおよびWebテキストで事前学習されている。LaMDAはクエリに対して、潜在的な応答を生成し、それらを安全性の観点からフィルタリングし、外部の知識源に基づき、最高品質の応答を見つけるために再ランク付けを行う。

LaMDAには逸話がある。LaMDAに質問し、バイアスを検証する仕事に従事していたGoogleのエンジニアであるブレイク・ルモワンは昨夏、LaMDAとの対話によってモデルはそれ自身で「知覚できる(Sentient)」と公の場で主張した。

LaMDAの登場までには長い道程があった。LaMDAは、Google Researchが発明し、2017年にオープンソース化したニューラルネットワークアーキテクチャであるTransformerをベースに構築されている。このアーキテクチャは、多くの単語(例えば文章や段落)を読み、それらの単語が互いにどのように関連しているかに「注意」を払い、次に来ると思われる単語を予測するように訓練できるモデルを生み出す。

最初のTransformerのモデルの一つであるBERT(2018年に発表)は、人間の言語の複雑さを理解する上で革命的なものだった。2年前、GoogleはBERTの1,000倍の性能を持つMUMを発表した。LaMDAは、2020年に発表されたGoogleの初期の研究に基づいており、この研究は対話で訓練されたTransformerベースの言語モデルは、事実上何についてでも話すことを学習できることを示していた。

これは始まりに過ぎない。GoogleにはLaMDAの他に、LaMDA2、GopherCite、)、Minerva、Flan-U-PaLM、PaLM-Coderなどの言語モデルがある。傘下AI研究所DeepMindには対話AIのSparrowがある。Googleがこれらを外部に解き放ち始めれば、ゲームは一気に変わる可能性がある。

関連記事

大規模言語モデル(LLM)の快進撃
ChatGPTは、大規模言語モデル(LLM)の有用性を多くの人に知らしめた。様々なタスクがLLMの手によって自動化、あるいは高度化していくことはもはや既定路線と言ってもいいだろう。

参考文献

  1. Romal Thoppilan et al. LaMDA: Language Models for Dialog Applications. arXiv:2201.08239 cs.CL
  2. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805 cs.CL.