オープンソースのゲリラ勢がAI開発競争でGoogleとOpenAIを圧倒する?

コンサルティング会社SemiAnalysisが手に入れたGoogleの社内文書が波紋を広げている。文書は、GoogleとOpenAI/Microsoftの双方が、オープンソース陣営の「ゲリラ兵」に圧倒される可能性を示唆している。

オープンソースのゲリラ勢がAI開発競争でGoogleとOpenAIを圧倒する?
Midjourney / Nijiで吉田拓史が作成

コンサルティング会社SemiAnalysisが手に入れたGoogleの社内文書が波紋を広げている。文書は、GoogleとOpenAI/Microsoftの双方が、AI開発競争において、オープンソース陣営の「ゲリラ兵」に圧倒される可能性を示唆している。


社内文書の内容は、大規模言語モデル(LLM)の製品化はすでに驚異的なレベルまで民主化されていることを意味している。LLMが大手企業しか参加できないハイステークゲームだという前提はすでに過去のもののようだ。

この転覆を生んだのは、Metaが2月に発表したオープンソースのLLMであるLLaMAである。LLaMAは部分的にオープンソースで開発されているものの、非営利の研究目的でのみ利用可能で、重み付けのデータは一般公開されていない。

LLaMAを用いれば、研究者は微調整という軽いコストを負担するだけで、参入することができる。「トレーニングや実験への参入障壁は、大手研究機関の総生産量から、一人の人間、一晩、そして頑丈なラップトップにまで低下した」と社内文書には書かれている。

Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality | LMSYS Org
<p>We introduce Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA on user-shared conversations collected from ShareGPT. Preliminary evaluation…

3月に公開された、LLaMAをベースとした2つのオープンソースモデル(VicunaとAlpaca)は、AIコミュニティの注目を集めることに成功し、どちらも無数の応用例を生み出している。

LLaMAを微調整したオープンソースのチャットボットであるVicunaは、OpenAI ChatGPTやGoogle Bardの90%以上の品質を達成する一方、LLaMAやAlpacaといったモデルを90%以上のケースで凌駕した、とカリフォルニア大学バークリー校、サンディエゴ校、カーネギーメロン大学の研究者らは発表している。

Vicunaの70億パラメータ版と130億パラメータ版のトレーニング費用はそれぞれ約70ドルと約300ドルに留まる。コードと重みは、オンラインデモとともに、非商用で利用できるよう公開されている。

図1. GPT-4で評価された相対的な反応の質。出典:
図1. GPT-4で評価された相対的な反応の質。出典:
GitHub - lm-sys/FastChat: An open platform for training, serving, and evaluating large languages. Release repo for Vicuna and FastChat-T5.
An open platform for training, serving, and evaluating large languages. Release repo for Vicuna and FastChat-T5. - GitHub - lm-sys/FastChat: An open platform for training, serving, and evaluating l…

下の図は、Vicunaの研究チームによる図表に、流出文書の中でGoogle社員が「2週間しか離れていない」などと書き加えた図だ。LLaMAの登場以降、それを基にしたオープンソースモデルが、GoogleのBardとOpenAIのChatGPTにあっという間に追いつく様を描いたものだ。TransformerのようなLLMの中核技術を研究開発してきたGoogleにとっては、オープンソース勢の驚異的な追走は相当イライラするものなのかもしれない。

Vicunaの研究チームによる図表に、Google社員が「2週間しか離れていない」などと書き加えた図。あっという間に追いつく様を
Vicunaの研究チームによる図表に、Google社員が「2週間しか離れていない」などと書き加えた図。あっという間に追いつく様を

同じくLLaMAを基にした70億パラメータのLLMであるAlpacaでは、iPhone 14でローカルで動作するよう微調整するまでにオープンソースの人々が要した時間は、たったの3週間だった。構築費用は「600ドル以下」であったと報告されている。

進歩速すぎ…スマホだけで動く軽量LLMがたった3週間で爆誕
ある大規模言語モデル(LLM)がオープンソースで公開されると、すぐさま微調整が進み、スマートフォンやタブレットでの動作が確認された。界隈の課題とされたオンデバイスの軽量AIがたった3週間で生まれてしまった。

AlpacaのiPhoneでの動作は、エッジデバイスにLLMが移植される未来を予見させるのに十分である。ただ、まだ改良の余地は大きいようだ。Alpacaの回答は通常ChatGPTより短く、幻覚、毒性、ステレオタイプなど、言語モデルによくある問題を示している。

モデルの小型化とドメイン固有化は重要なトレンドの1つである。より良いデータで再調整された小さなモデルは、より多くのデータで完全に再調整された大きなモデルよりも、特定のタスクでは勝るかもしれない。これは世界中のソフトウェアエンジニアの参加を募れるオープンソース側に有利なのかもしれない。

ドメイン固有が安く済む証拠はある。Microsoftが生み出した「LoRA(Low Rank Adaptation)」と呼ばれる技術では、基本的には、ドメイン固有のモデルを作る場合、すべてのモデルパラメータを再学習するのではなく、変更する必要があるパラメータを見つけるだけでよい。これによって計算コストを大幅に削減できることを同社のチームは示している。

LoRA: Low-Rank Adaptation of Large Language Models - Microsoft Research
An important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retrains all model parameters, becomes less feasible. Using GPT-3 175B as an example…

また、LLaMAを基にGoogleやOpenAIを追走しようとするプロジェクトも活気づいている。RedPajamaは、完全にオープンソース化された大規模言語モデルを開発するプロジェクトで、AIスタートアップのTogether、Ontocord.ai、チューリッヒ工科大学のETH DS3Lab、スタンフォード大学のStanford CRFM、Hazy Research、MILA Québec AI Instituteによる共同研究プロジェクトとして進められている。RedPajamaはその第一段階として、1兆2千億以上のトークンを含むLLaMAトレーニングデータセットを公開した。

RedPajama, a project to create leading open-source models, starts by reproducing LLaMA training dataset of over 1.2 trillion tokens — TOGETHER
RedPajama is a project to create a set of leading, fully open-source models. Today, we are excited to announce the completion of the first step of this project: the reproduction of the LLaMA training dataset of over 1.2 trillion tokens.

Read more

新たなスエズ危機に直面する米海軍[英エコノミスト]

新たなスエズ危機に直面する米海軍[英エコノミスト]

世界が繁栄するためには、船が港に到着しなければならない。マラッカ海峡やパナマ運河のような狭い航路を通過するとき、船舶は最も脆弱になる。そのため、スエズ運河への唯一の南側航路である紅海で最近急増している船舶への攻撃は、世界貿易にとって重大な脅威となっている。イランに支援されたイエメンの過激派フーシ派は、表向きはパレスチナ人を支援するために、35カ国以上につながる船舶に向けて100機以上の無人機やミサイルを発射した。彼らのキャンペーンは、黒海から南シナ海まですでに危険にさらされている航行の自由の原則に対する冒涜である。アメリカとその同盟国は、中東での紛争をエスカレートさせることなく、この問題にしっかりと対処しなければならない。 世界のコンテナ輸送量の20%、海上貿易の10%、海上ガスと石油の8~10%が紅海とスエズルートを通過している。数週間の騒乱の後、世界の5大コンテナ船会社のうち4社が紅海とスエズ航路の航海を停止し、BPは石油の出荷を一時停止した。十分な供給があるため、エネルギー価格への影響は軽微である。しかし、コンテナ会社の株価は、投資家が輸送能力の縮小を予想している

By エコノミスト(英国)
新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

1960年代以来、世界中のエンジニアが回転デトネーションエンジン(RDE)と呼ばれる新しいタイプのジェット機を研究してきたが、実験段階を超えることはなかった。世界最大のジェットエンジン製造会社のひとつであるジー・エアロスペースは最近、実用版を開発中であると発表した。今年初め、米国の国防高等研究計画局は、同じく大手航空宇宙グループであるRTX傘下のレイセオンに対し、ガンビットと呼ばれるRDEを開発するために2900万ドルの契約を結んだ。 両エンジンはミサイルの推進に使用され、ロケットや既存のジェットエンジンなど、現在の推進システムの航続距離や速度の限界を克服する。しかし、もし両社が実用化に成功すれば、超音速飛行を復活させる可能性も含め、RDEは航空分野でより幅広い役割を果たすことになるかもしれない。 中央フロリダ大学の先端航空宇宙エンジンの専門家であるカリーム・アーメッドは、RDEとは「火を制御された爆発に置き換える」ものだと説明する。専門用語で言えば、ジェットエンジンは酸素と燃料の燃焼に依存しており、これは科学者が消炎と呼ぶ亜音速の反応だからだ。それに比べてデトネーシ

By エコノミスト(英国)
ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

今月初め、イギリス、エストニア、フィンランドの海軍がバルト海で合同演習を行った際、その目的は戦闘技術を磨くことではなかった。その代わり、海底のガスやデータのパイプラインを妨害行為から守るための訓練が行われた。今回の訓練は、10月に同海域の海底ケーブルが破損した事件を受けたものだ。フィンランド大統領のサウリ・ニーニストは、このいたずらの原因とされた中国船が海底にいかりを引きずった事故について、「意図的なのか、それとも極めて稚拙な技術の結果なのか」と疑問を呈した。 海底ケーブルはかつて、インターネットの退屈な配管と見なされていた。現在、アマゾン、グーグル、メタ、マイクロソフトといったデータ経済の巨人たちは、中国と米国の緊張が世界のデジタルインフラを分断する危険性をはらんでいるにもかかわらず、データの流れをよりコントロールすることを主張している。その結果、海底ケーブルは貴重な経済的・戦略的資産へと変貌を遂げようとしている。 海底データパイプは、大陸間インターネットトラフィックのほぼ99%を運んでいる。調査会社TeleGeographyによると、現在550本の海底ケーブルが活動

By エコノミスト(英国)