大規模言語モデル(LLM)の快進撃

ChatGPTは、大規模言語モデル(LLM)の有用性を多くの人に知らしめた。様々なタスクがLLMの手によって自動化、あるいは高度化していくことはもはや既定路線と言ってもいいだろう。

大規模言語モデル(LLM)の快進撃
Licensed under the Unsplash+ License

ChatGPTは、大規模言語モデル(LLM)の有用性を多くの人に知らしめた。様々なタスクがLLMの手によって自動化、あるいは高度化していくことはもはや既定路線と言ってもいいだろう。


12月初旬にChatGPTが登場し、話題をさらった。回答のレベルは完璧とは言えないものの、これまでのチャットボットとは一線を画していた。プログラミングのような得意な分野では、ChatGPTはググるよりも速く、適切な回答を返してくれることもある。

ChatGPTを動かすGPT-3のような大規模言語モデル(LLM)の発展は、自然言語処理(NLP)におけるTransformerと呼ばれるモデルの登場によって加速した。Googleとトロント大学の研究者たちが、『Attention is all you need(注視機構だけあればいい)』と題した論文で、BERTと呼ばれる言語モデルが使用する斬新なアーキテクチャを提案したことだ。自己注視機構により系列データを一括処理するTransformerは、畳み込みニューラルネットワークなど従来型モデルの性能を超えるものだった。

大規模言語モデルが注目される理由は、第1に、1つのモデルで質問応答、文書要約、テキスト生成、文章補完、翻訳などのタスクに使用できることだ。第2に、モデルにパラメータを追加し、データを追加するにつれて、その性能がスケールし続けることだ。第3に、ほんの一握りのラベル付きデータセットを与えられさえすれば、きちんとした予測をすることができることだ。

LLMは非常に明瞭なスケーリングの法則を持つことが経験的に知られている。LLMの規模(学習計算、パラメータ数など)を大きくすることで、下流の様々なNLPタスクの性能とサンプル効率が向上する、というのだ。

Transformerが登場する以前のニューラルネットは、大規模なラベル付きデータセットでトレーニングしなければならず、その生成には多大なコストと時間が必要だった。Transformerは、要素間のパターンを数学的に発見することでその必要をなくし、Web上や企業データベース内に存在する膨大な数の画像やテキストデータを利用できる。

大規模な言語モデルは、オープンソースであろうとなかろうと、共通して高い開発コストがかかる。2020年にAI21 Labsが行った調査では、わずか15億のパラメータを持つテキスト生成モデルの開発費用は160万ドルに上ると見積もられている。また、学習させたモデルを実際に動かす「推論」にも費用がかかる。ある情報筋によると、GPT-3を1台のAWSインスタンスで動かす場合のコストは、最低でも年間87,000ドルと見積もられている。

特定のドメインに対して微調整されたモデルは、一般的に大規模な言語モデルよりも小型だ。例えば、OpenAIのCodexは、GPT-3の直系の子孫で、プログラミングタスクのために微調整されている。Codexは数十億のパラメータを含んでいるが、GPT-3よりも小さく、コンピュータコードの文字列を生成(そして完成)する能力に優れている。微調整は他にも、質問に答えたり、タンパク質配列を生成したりといったタスクを実行するモデルの能力を向上させることができる。

微調整されたモデルには大手企業以外のプレイヤーの参入機会が予期されている。 Cohereはトロントに拠点を置く急成長中のスタートアップで、OpenAIと同様、最先端のNLP技術を開発し、APIを介して商用利用できるようにしている。Cohereの創業チームは、CEOのAidan GomezがTransformerの共同発明者の一人である。CTOのNick Frosstが「深層学習の父」と呼ばれるジェフリー・ヒントン・トロント大教授の弟子である。CohereはGPT-3のような生成モデルも作っているが、既存のテキストを分析するモデルに力を入れている。これらの分類モデルは、カスタマーサポートからコンテンツモデレーション、市場分析から検索まで、無数の商用ユースケースを持っている。

もう一つの代表的なNLPスタートアップは、Hugging Faceだ。Hugging Faceは、オープンソースのNLP技術のための大人気のコミュニティベースのリポジトリである。OpenAIやCohereとは異なり、Hugging Faceは独自のNLPモデルを構築していない。むしろ、オープンソースのNLPモデルの最新かつ最高のものを保存、提供、管理するプラットフォームであり、顧客がこれらのモデルを微調整し、大規模に展開することを可能にすることを企図している。

このような言語という範囲だけでも膨大な応用例があり、無数のスタートアップ企業がしのぎを削っている。ざっと見るだけで、文章校正AI、機械翻訳、動画検索・即時翻訳、キャッチコピー生成、保険会社向けの医療記録のレビュー、セールス支援、従業員エンゲージメント、会話型音声アシスタント、コンテンツ審査などの分野が存在する。

自然言語処理スタートアップがブーム: AIで最も進歩が早い分野
自然言語処理(NLP)スタートアップがブームだ。NLPはAIで最も進歩の早い分野で、基盤的なモデルを様々なユースケースに適応させる点において、既存ビジネスを塗り替える広範なビジネス機会が望まれている。

プログラミング支援はLLMの有望な応用先である。テルアビブに拠点を置くTabnineは、複数のLLMを実行するソフトウェア開発者向けのAIアシスタントを作成した。同社によると、コードの最大30%を自動化する全行・全機能補完により、20のソフトウェア言語と15のエディターで、世界中の100万人以上の開発者のプログラミングを高速化することを支援している。

医療現場の電子カルテ(EHR)を処理・解釈するLLMも提案されている。フロリダ大学医療システムからの非識別化臨床記録で事前にトレーニングされたMegatron BERTモデルGatorTronは、臨床領域で学習させた従来の最大モデルのパラメータ数が1億1000万だったのを、89億までにスケールアップした。研究チームは5つの臨床自然言語処理(NLP)タスクを改善したことをもって、医療提供の改善に向けた医療AIシステムに適用することが可能と結論づけている。

NvidiaのApplied Deep Learning Research担当バイスプレジデントであるBryan Catanzaroは、「LLMは、深いドメインの質問に対する回答、言語の翻訳、文書の理解と要約、物語の執筆、プログラムの計算を、すべて専門的なトレーニングや監督なしに行うことができ、柔軟性と能力があることが証明されている」と述べている。

様々な分野への応用が有望視されている。この2年間で、LLMは、ヘルスケア、ゲーム、金融、ロボット工学、およびソフトウェア開発などの分野や機能において、AIの影響を静かに拡大させている。LLMは汎用的であるため、各カテゴリーにおける使用例や関連する産業の範囲は非常に広い。

ダウンサイドも

ただし、LLMが人間が持つような世界モデルを持っているわけではないことには留意しないといけない。このシステムは言葉の並びを生成するモデル(つまり、人々がどのように言葉を使うか)であって、世界がどのように機能しているかのモデルではない。言語はしばしば世界を映し出すので、それらはしばしば正しいが、同時にこれらのシステムは実際に世界とその仕組みについて推論しているわけではないので、彼らが言うことの正確さはいくらか偶然の問題である。

LLMの生成する言葉はもっともらしく権威ある風だが、嘘であることも多い。このような問題は11月中旬にメタの「Galactica」がリリースされたことでも明らかになっていた。多くのAI研究者は、すぐにその信頼性と信用性について懸念を表明した。政治的・科学的な誤報を作る能力があるという報告が広まり、Meta AIがわずか3日後にこのモデルを引っ込めたほど、状況は悲惨だった。

Meta AIは当初、このモデルをオープンソース化し、何が行われているかを説明する論文を発表した。現在の機械学習技術の専門知識と十分な予算があれば、誰でもそのレシピを再現できるようになったのだ。実際、スタートアップのStability.AIは、すでに自社版のGalacticaの提供を公的に検討している。

悪用する人が増えれば、LLMがもたらすデメリットがメリットをゆうゆうと超越してしまうだろう。そのような事例はすでに起きている。多くのプログラマが愛用する巨大なQ&AサイトStack Overflowは、ChatGPTに蹂躙され、ChatGPTが作成した投稿を一時的に禁止することになった。彼らの説明によると、「全体として、ChatGPTから正しい答えを得る平均率が低すぎるため、ChatGPTが作成した答えの投稿は、サイトと正しい答えを探しているユーザーにとって実質的に有害である」とのことだ。

Stack Overflowにとって、この問題は文字通り死活的なものだ。もしウェブサイトが価値のないコード例で溢れれば、プログラマーはそこに行かなくなり、3000万以上の質問と回答のデータベースは信頼できなくなり、14年の歴史を持つコミュニティ主導のウェブサイトは死んでしまう。世界中のプログラマーが頼る最も中心的なリソースの一つであるため、ソフトウェアの品質と開発者の生産性に計り知れない影響を与える可能性がある。

Read more

新たなスエズ危機に直面する米海軍[英エコノミスト]

新たなスエズ危機に直面する米海軍[英エコノミスト]

世界が繁栄するためには、船が港に到着しなければならない。マラッカ海峡やパナマ運河のような狭い航路を通過するとき、船舶は最も脆弱になる。そのため、スエズ運河への唯一の南側航路である紅海で最近急増している船舶への攻撃は、世界貿易にとって重大な脅威となっている。イランに支援されたイエメンの過激派フーシ派は、表向きはパレスチナ人を支援するために、35カ国以上につながる船舶に向けて100機以上の無人機やミサイルを発射した。彼らのキャンペーンは、黒海から南シナ海まですでに危険にさらされている航行の自由の原則に対する冒涜である。アメリカとその同盟国は、中東での紛争をエスカレートさせることなく、この問題にしっかりと対処しなければならない。 世界のコンテナ輸送量の20%、海上貿易の10%、海上ガスと石油の8~10%が紅海とスエズルートを通過している。数週間の騒乱の後、世界の5大コンテナ船会社のうち4社が紅海とスエズ航路の航海を停止し、BPは石油の出荷を一時停止した。十分な供給があるため、エネルギー価格への影響は軽微である。しかし、コンテナ会社の株価は、投資家が輸送能力の縮小を予想している

By エコノミスト(英国)
新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

1960年代以来、世界中のエンジニアが回転デトネーションエンジン(RDE)と呼ばれる新しいタイプのジェット機を研究してきたが、実験段階を超えることはなかった。世界最大のジェットエンジン製造会社のひとつであるジー・エアロスペースは最近、実用版を開発中であると発表した。今年初め、米国の国防高等研究計画局は、同じく大手航空宇宙グループであるRTX傘下のレイセオンに対し、ガンビットと呼ばれるRDEを開発するために2900万ドルの契約を結んだ。 両エンジンはミサイルの推進に使用され、ロケットや既存のジェットエンジンなど、現在の推進システムの航続距離や速度の限界を克服する。しかし、もし両社が実用化に成功すれば、超音速飛行を復活させる可能性も含め、RDEは航空分野でより幅広い役割を果たすことになるかもしれない。 中央フロリダ大学の先端航空宇宙エンジンの専門家であるカリーム・アーメッドは、RDEとは「火を制御された爆発に置き換える」ものだと説明する。専門用語で言えば、ジェットエンジンは酸素と燃料の燃焼に依存しており、これは科学者が消炎と呼ぶ亜音速の反応だからだ。それに比べてデトネーシ

By エコノミスト(英国)
ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

今月初め、イギリス、エストニア、フィンランドの海軍がバルト海で合同演習を行った際、その目的は戦闘技術を磨くことではなかった。その代わり、海底のガスやデータのパイプラインを妨害行為から守るための訓練が行われた。今回の訓練は、10月に同海域の海底ケーブルが破損した事件を受けたものだ。フィンランド大統領のサウリ・ニーニストは、このいたずらの原因とされた中国船が海底にいかりを引きずった事故について、「意図的なのか、それとも極めて稚拙な技術の結果なのか」と疑問を呈した。 海底ケーブルはかつて、インターネットの退屈な配管と見なされていた。現在、アマゾン、グーグル、メタ、マイクロソフトといったデータ経済の巨人たちは、中国と米国の緊張が世界のデジタルインフラを分断する危険性をはらんでいるにもかかわらず、データの流れをよりコントロールすることを主張している。その結果、海底ケーブルは貴重な経済的・戦略的資産へと変貌を遂げようとしている。 海底データパイプは、大陸間インターネットトラフィックのほぼ99%を運んでいる。調査会社TeleGeographyによると、現在550本の海底ケーブルが活動

By エコノミスト(英国)