「官僚主義」と揶揄されたGoogleが一転してチャットボットを一般公開へ
GoogleはAIベースのチャットボットを一般公開する。検索とチャットボットのカニバリズムに苦しんでいるように見えたが、ChatGPTのセンセーションが同社の豹変に影響したことは否定できないだろう。
GoogleはAIベースのチャットボットを一般公開する。検索とチャットボットのカニバリズムに苦しんでいるように見えたが、ChatGPTのセンセーションが同社の豹変に影響したことは否定できないだろう。
Googleは6日、言語モデルLaMDAを使用した対話AIサービス「Bard」を「信頼できるテスター」に提供し、今後数週間でより広く公開することを発表した。同社は、まずLaMDAの軽量版を公開する。
軽量版の応答が品質、安全性、現実の情報に基づいた高い水準を満たしていることを確認するつもりだ、とスンダー・ピチャイCEOは書いている。軽量版は、必要な計算量が格段に少ないため、より多くのユーザーに対して提供が可能だという。
同社は、明確な答えがひとつもないようなクエリ(質問)に対して、ストーリー性のある回答を提供するためにシステムを利用するなど、近いうちにLaMDAを検索結果に統合する計画を表明した。スンダーは、LaMDAを始めとする大規模言語モデル(LLM)に他の企業が接続できるようなAPIを開発中であると述べている。
これは、これまでのGoogleの方針の大転換である。Googleは検索と対話AIのカニバリズムに苦しんでいるように見えたが、ChatGPTのセンセーションが意思決定の変化に影響したのかもしれない。
LaMDAは対話に特化したTransformerベースのLLMの1つで、最大1370億のパラメータを持ち、1.56兆語の公開対話データおよびWebテキストで事前学習されている。LaMDAはクエリに対して、潜在的な応答を生成し、それらを安全性の観点からフィルタリングし、外部の知識源に基づき、最高品質の応答を見つけるために再ランク付けを行う。
LaMDAには逸話がある。LaMDAに質問し、バイアスを検証する仕事に従事していたGoogleのエンジニアであるブレイク・ルモワンは昨夏、LaMDAとの対話によってモデルはそれ自身で「知覚できる(Sentient)」と公の場で主張した。
LaMDAの登場までには長い道程があった。LaMDAは、Google Researchが発明し、2017年にオープンソース化したニューラルネットワークアーキテクチャであるTransformerをベースに構築されている。このアーキテクチャは、多くの単語(例えば文章や段落)を読み、それらの単語が互いにどのように関連しているかに「注意」を払い、次に来ると思われる単語を予測するように訓練できるモデルを生み出す。
最初のTransformerのモデルの一つであるBERT(2018年に発表)は、人間の言語の複雑さを理解する上で革命的なものだった。2年前、GoogleはBERTの1,000倍の性能を持つMUMを発表した。LaMDAは、2020年に発表されたGoogleの初期の研究に基づいており、この研究は対話で訓練されたTransformerベースの言語モデルは、事実上何についてでも話すことを学習できることを示していた。
これは始まりに過ぎない。GoogleにはLaMDAの他に、LaMDA2、GopherCite、)、Minerva、Flan-U-PaLM、PaLM-Coderなどの言語モデルがある。傘下AI研究所DeepMindには対話AIのSparrowがある。Googleがこれらを外部に解き放ち始めれば、ゲームは一気に変わる可能性がある。