今年はAIにとって画期的な年になった
Photo by DeepMind

今年はAIにとって画期的な年になった

今年は生成型モデルが話題をさらい、チャットボットが大規模モデルの日常的なユースケースの可能性を切り開いた。生命科学で進行中の革命は見逃せず、すでにAIに意識を見出した人も現れた。米政府が発出したAI権利章典は政策的対応のパイオニアとなった。

吉田拓史

今年は生成型モデルが話題をさらい、チャットボットが大規模モデルの日常的なユースケースの可能性を切り開いた。生命科学で進行中の革命は見逃せず、すでにAIに意識を見出した人も現れた。米政府が発出したAI権利章典は政策的対応のパイオニアとなった。


今年のAIの最大の進歩の1つは、ジェネレ―ティブAI(生成型AI)だろう。今年、各社はStable Diffusion、DALL-E 2のような主要モデルを発表した。

2021年にOpenAIのテキスト画像生成器DALL-Eが人々に感銘を与えた後、2022年にはより高性能な巨大モデルがリリースされた。5月にGoogleのImagenが非公開でローンチ、7月にMidjourneyがDALL-Eの競合製品をオープンベータで公開、8月にStability AIのStable Diffusionが公開され、9月にDALL-E 2が広く利用可能になった。

これらに共通するのは、拡散モデル(diffusion model)を採用していることだ。このモデルは、元のデータにノイズを加え、その後モデルには、ノイズを除去していく過程を学習させる。拡散モデルはデータの品質と意味構造を維持しながら最先端の画像を生成できるため、画像生成の領域において、敵対的生成ネットワーク(GAN)などの過去の手法を凌駕する兆しを見せている。

12月に公開されたOpenAIのGPT-3チャットボット「ChatGPT」は界隈の話題を一時独占した。GPT-3に代表される大規模言語モデル(LLM)は、事前学習済みモデルを微調整することで様々なユースケースに対応できる1つの重要な例を提示した。

LLMモデルの始まりは、Googleとトロント大学の研究者たちが、『Attention is all you need』と題した論文で、BERTと呼ばれる言語モデルが使用する斬新なアーキテクチャを提案したことだ。それまで研究者が必須と見ていた、入力データを逐次処理する機構をすべて捨て、代わりに物事を一度に見る機構だけを採用した。BERTの1億1,000万個のパラメータは、当時は十分大きかったが、現在の最先端のAIプログラムは、その1万倍の1兆個を超えるパラメータを持つようになった。より多くのデータを与え、パラメーターの数を増やしてモデルを大きくすればするほど、モデルの性能はどんどん良くなっていく、というのが機械学習コミュニティの定説になっている。

しかし、規模の拡大には、多大な計算コストとエネルギーコストがかかる。これらのコストを緩和する手法の探索も進められている。AI業界最大の学会であるNeurIPSで優秀論文賞を受賞した研究では、多くの学習例が非常に冗長であるため、性能を犠牲にすることなく、学習データセットをより小さなサイズに刈り込むことが可能であることが判明した。同研究では、データ刈り込みに関する新しい分析理論を構築し、その理論が実際に成り立つことを示した。

今年現れたモデルは印象的だが、ツールは依然として、インターネット上で訓練されたAIに固有の偏見、人種差別、性差別を示してきた。Stable Diffusionを研究する学者たちは、例えば「英雄的な消防士」は白人男性として描かれ、「献身的な清掃員」は有色人種であることを発見し、米ネット掲示板のRedditではモデレーターがこれらのツールで有名人のポルノを作るいくつかのグループを禁止した。生成された画像の中に自分の作品が含まれたアーティストからは、著作権の問題が噴出している。

「AIの民主化」は間違いなく進んでいる。グラフィックデザイナー、消費者サービスのスタートアップ、アプリメーカーなどが、これらの画像やテキストモデルを仕事に利用しているのを目にすることができる。2019年にOpenAIに10億ドルを投資したマイクロソフトは、同社のOfficeソフトウェアにDALL-Eを追加した。

そして、NeurIPSカンファレンスでの噂が本当であるならば、Open AIの大規模言語モデル(LLM)の最新版GPT-4がそろそろ登場することになる。これがどの程度のインパクトをもたらすのだろうか。

AIの意識をめぐる論争

この夏、GoogleのエンジニアがGoogleの大型言語モデルLaMDAに意識があると主張した後、AI界では侃々諤々の議論が繰り広げられた。ほとんどの技術者は、意識は(もしあったとしても)現実にはほど遠いが、モデルは人々を騙して本物の知性と会話しているように思わせるのに十分なほど良くなってきていることに同意した。

このことや他のAIの進歩に触発されて、有名なチューリングテスト(機械が人間を騙して別の人間と会話していると思わせることに成功するかどうかを評価すること)を再検討する学者もいる。例えば、LLMの能力を測定し、外挿するためのベンチマークであるBIG-Bench(Beyond the Imitation Game)が6月に公開された。

タンパク質の構造予測が生命科学を変えている

多くのタンパク質の構造を高精度に予測するDeepMindのAlphaFold2は、2020年に発表された。これが2021年7月に無償で一般に使用可能となったことで、生命科学全般の研究に大きな影響を与え続けている。

機械学習の教育・研究のための開発・運用環境Google Colaboratory上で動作するAlphaFold2であるColabFoldは、オリジナルのAlphaFold2に比べ計算処理を30倍以上高速化し、AlphaFold2の構造予測処理のうち最も時間のかかるMSAの取得にかかる時間を1〜2時間から数分程度まで短縮した。ウェブブラウザからGUI操作だけでアミノ酸配列を入力して実行させるだけで予測構造が得られるという大きな利便性が、タンパク質の構造を前提とした上で機能を議論する時代の到来を予期させることになった。

今年、研究者はこのツールを使って、約100万種の生物種から2億個以上のタンパク質の構造を予測した。これは、地球上に存在するほぼすべての既知のタンパク質を網羅していることになる、とNature誌は指摘している。

ほとんどの医薬品は、この3Dタンパク質形状に基づいて設計されているため、予測方法の進歩は、医薬品市場を新しい方向へと向け、インシリコ創薬(計算科学を利用してコンピューターの中で薬をつくる創薬手法)の取り組み可能性を拡大する。

AI権利章典:本格的なAI政策のスタート

今年10月、バイデン政権はAI権利章典を発表し、アルゴリズムシステムとその潜在的な害悪から一般市民を保護するための一連の方針を打ち出した。

研究者や技術者、ジャーナリスト、政策立案者からのフィードバックを取り入れたこの青写真には、AIの開発、展開、使用を導くための5つの重要な原則が挙げられている。①システムは安全で効果的でなければならない、②差別があってはならない、③データのプライバシーは尊重されなければならない、④システムがどのように使われどのように機能するかを理解しなければならない、⑤オプトアウトして人間に代わってもらうことができるようにしなければならない、の5点がその骨子だ。

批判者は、この提言には法的拘束力がなく、何の実効性もないと指摘しているが、この青写真は、開発者を方向付け、将来の法律を作るために、いくつかの規範を確立するものである。今後は各国で同様の規制対稀有の模索が進んでいくだろう。