大規模言語モデル(LLM)の快進撃
Licensed under the Unsplash+ License

大規模言語モデル(LLM)の快進撃

ChatGPTは、大規模言語モデル(LLM)の有用性を多くの人に知らしめた。様々なタスクがLLMの手によって自動化、あるいは高度化していくことはもはや既定路線と言ってもいいだろう。

吉田拓史

ChatGPTは、大規模言語モデル(LLM)の有用性を多くの人に知らしめた。様々なタスクがLLMの手によって自動化、あるいは高度化していくことはもはや既定路線と言ってもいいだろう。


12月初旬にChatGPTが登場し、話題をさらった。回答のレベルは完璧とは言えないものの、これまでのチャットボットとは一線を画していた。プログラミングのような得意な分野では、ChatGPTはググるよりも速く、適切な回答を返してくれることもある。

ChatGPTを動かすGPT-3のような大規模言語モデル(LLM)の発展は、自然言語処理(NLP)におけるTransformerと呼ばれるモデルの登場によって加速した。Googleとトロント大学の研究者たちが、『Attention is all you need(注視機構だけあればいい)』と題した論文で、BERTと呼ばれる言語モデルが使用する斬新なアーキテクチャを提案したことだ。自己注視機構により系列データを一括処理するTransformerは、畳み込みニューラルネットワークなど従来型モデルの性能を超えるものだった。

大規模言語モデルが注目される理由は、第1に、1つのモデルで質問応答、文書要約、テキスト生成、文章補完、翻訳などのタスクに使用できることだ。第2に、モデルにパラメータを追加し、データを追加するにつれて、その性能がスケールし続けることだ。第3に、ほんの一握りのラベル付きデータセットを与えられさえすれば、きちんとした予測をすることができることだ。

LLMは非常に明瞭なスケーリングの法則を持つことが経験的に知られている。LLMの規模(学習計算、パラメータ数など)を大きくすることで、下流の様々なNLPタスクの性能とサンプル効率が向上する、というのだ。

Transformerが登場する以前のニューラルネットは、大規模なラベル付きデータセットでトレーニングしなければならず、その生成には多大なコストと時間が必要だった。Transformerは、要素間のパターンを数学的に発見することでその必要をなくし、Web上や企業データベース内に存在する膨大な数の画像やテキストデータを利用できる。

大規模な言語モデルは、オープンソースであろうとなかろうと、共通して高い開発コストがかかる。2020年にAI21 Labsが行った調査では、わずか15億のパラメータを持つテキスト生成モデルの開発費用は160万ドルに上ると見積もられている。また、学習させたモデルを実際に動かす「推論」にも費用がかかる。ある情報筋によると、GPT-3を1台のAWSインスタンスで動かす場合のコストは、最低でも年間87,000ドルと見積もられている。

特定のドメインに対して微調整されたモデルは、一般的に大規模な言語モデルよりも小型だ。例えば、OpenAIのCodexは、GPT-3の直系の子孫で、プログラミングタスクのために微調整されている。Codexは数十億のパラメータを含んでいるが、GPT-3よりも小さく、コンピュータコードの文字列を生成(そして完成)する能力に優れている。微調整は他にも、質問に答えたり、タンパク質配列を生成したりといったタスクを実行するモデルの能力を向上させることができる。

微調整されたモデルには大手企業以外のプレイヤーの参入機会が予期されている。 Cohereはトロントに拠点を置く急成長中のスタートアップで、OpenAIと同様、最先端のNLP技術を開発し、APIを介して商用利用できるようにしている。Cohereの創業チームは、CEOのAidan GomezがTransformerの共同発明者の一人である。CTOのNick Frosstが「深層学習の父」と呼ばれるジェフリー・ヒントン・トロント大教授の弟子である。CohereはGPT-3のような生成モデルも作っているが、既存のテキストを分析するモデルに力を入れている。これらの分類モデルは、カスタマーサポートからコンテンツモデレーション、市場分析から検索まで、無数の商用ユースケースを持っている。

もう一つの代表的なNLPスタートアップは、Hugging Faceだ。Hugging Faceは、オープンソースのNLP技術のための大人気のコミュニティベースのリポジトリである。OpenAIやCohereとは異なり、Hugging Faceは独自のNLPモデルを構築していない。むしろ、オープンソースのNLPモデルの最新かつ最高のものを保存、提供、管理するプラットフォームであり、顧客がこれらのモデルを微調整し、大規模に展開することを可能にすることを企図している。

このような言語という範囲だけでも膨大な応用例があり、無数のスタートアップ企業がしのぎを削っている。ざっと見るだけで、文章校正AI、機械翻訳、動画検索・即時翻訳、キャッチコピー生成、保険会社向けの医療記録のレビュー、セールス支援、従業員エンゲージメント、会話型音声アシスタント、コンテンツ審査などの分野が存在する。

自然言語処理スタートアップがブーム: AIで最も進歩が早い分野
自然言語処理(NLP)スタートアップがブームだ。NLPはAIで最も進歩の早い分野で、基盤的なモデルを様々なユースケースに適応させる点において、既存ビジネスを塗り替える広範なビジネス機会が望まれている。

プログラミング支援はLLMの有望な応用先である。テルアビブに拠点を置くTabnineは、複数のLLMを実行するソフトウェア開発者向けのAIアシスタントを作成した。同社によると、コードの最大30%を自動化する全行・全機能補完により、20のソフトウェア言語と15のエディターで、世界中の100万人以上の開発者のプログラミングを高速化することを支援している。

医療現場の電子カルテ(EHR)を処理・解釈するLLMも提案されている。フロリダ大学医療システムからの非識別化臨床記録で事前にトレーニングされたMegatron BERTモデルGatorTronは、臨床領域で学習させた従来の最大モデルのパラメータ数が1億1000万だったのを、89億までにスケールアップした。研究チームは5つの臨床自然言語処理(NLP)タスクを改善したことをもって、医療提供の改善に向けた医療AIシステムに適用することが可能と結論づけている。

NvidiaのApplied Deep Learning Research担当バイスプレジデントであるBryan Catanzaroは、「LLMは、深いドメインの質問に対する回答、言語の翻訳、文書の理解と要約、物語の執筆、プログラムの計算を、すべて専門的なトレーニングや監督なしに行うことができ、柔軟性と能力があることが証明されている」と述べている。

様々な分野への応用が有望視されている。この2年間で、LLMは、ヘルスケア、ゲーム、金融、ロボット工学、およびソフトウェア開発などの分野や機能において、AIの影響を静かに拡大させている。LLMは汎用的であるため、各カテゴリーにおける使用例や関連する産業の範囲は非常に広い。

ダウンサイドも

ただし、LLMが人間が持つような世界モデルを持っているわけではないことには留意しないといけない。このシステムは言葉の並びを生成するモデル(つまり、人々がどのように言葉を使うか)であって、世界がどのように機能しているかのモデルではない。言語はしばしば世界を映し出すので、それらはしばしば正しいが、同時にこれらのシステムは実際に世界とその仕組みについて推論しているわけではないので、彼らが言うことの正確さはいくらか偶然の問題である。

LLMの生成する言葉はもっともらしく権威ある風だが、嘘であることも多い。このような問題は11月中旬にメタの「Galactica」がリリースされたことでも明らかになっていた。多くのAI研究者は、すぐにその信頼性と信用性について懸念を表明した。政治的・科学的な誤報を作る能力があるという報告が広まり、Meta AIがわずか3日後にこのモデルを引っ込めたほど、状況は悲惨だった。

Meta AIは当初、このモデルをオープンソース化し、何が行われているかを説明する論文を発表した。現在の機械学習技術の専門知識と十分な予算があれば、誰でもそのレシピを再現できるようになったのだ。実際、スタートアップのStability.AIは、すでに自社版のGalacticaの提供を公的に検討している。

悪用する人が増えれば、LLMがもたらすデメリットがメリットをゆうゆうと超越してしまうだろう。そのような事例はすでに起きている。多くのプログラマが愛用する巨大なQ&AサイトStack Overflowは、ChatGPTに蹂躙され、ChatGPTが作成した投稿を一時的に禁止することになった。彼らの説明によると、「全体として、ChatGPTから正しい答えを得る平均率が低すぎるため、ChatGPTが作成した答えの投稿は、サイトと正しい答えを探しているユーザーにとって実質的に有害である」とのことだ。

Stack Overflowにとって、この問題は文字通り死活的なものだ。もしウェブサイトが価値のないコード例で溢れれば、プログラマーはそこに行かなくなり、3000万以上の質問と回答のデータベースは信頼できなくなり、14年の歴史を持つコミュニティ主導のウェブサイトは死んでしまう。世界中のプログラマーが頼る最も中心的なリソースの一つであるため、ソフトウェアの品質と開発者の生産性に計り知れない影響を与える可能性がある。