各国政府はAIの取り締まりを急ぐべきではない[英エコノミスト]

各国政府はAIの取り締まりを急ぐべきではない[英エコノミスト]
Photo by Cash Macanaya on Unsplash

AIは私たちを殺すのか? 一部の技術者は、その答えはイエスだと本気で信じている。ある悪夢のようなシナリオでは、AIが最終的に人類を出し抜き、コンピューターや工場を乗っ取り、殺人ドローンで空を埋め尽くすというものだ。また別のシナリオでは、ChatGPTのような生成AIのような大規模な言語モデル(LLM)が、悪者に壊滅的なサイバー兵器や致命的な新種の病原体を作り出すノウハウを与えてしまう。

このような終末のシナリオについて、今こそ真剣に考える時である。その可能性が高まったからではなく、その可能性がどれほど高いかは誰にもわからないが、世界中の政策立案者がその対策に腐心しているからである。欧州連合(EU)は拡大的なAI法を最終決定し、ホワイトハウスはLLMを対象とした大統領令を間もなく発表する見込みだ。11月1日と2日には、英国政府が世界のリーダーや技術界のボスを招集して「AI安全サミット」を開催し、AIモデルがもたらすかもしれない極度のリスクについて話し合う。

政府は、世界を大きく変える可能性のあるテクノロジーを無視することはできないし、人類に対する信頼できる脅威は真剣に受け止めるべきである。規制当局はこれまで遅すぎた。2010年代にソーシャルメディアを取り締まるためにもっと早く行動していればと多くの人が思っており、今度こそ先頭に立ちたいと思っている。しかし、性急な行動には危険も伴う。あまりに急ぎすぎると、政策立案者たちは、間違った問題を対象とし、現実の問題に対しては効果がなく、イノベーションを阻害するようなグローバルなルールや制度を作りかねない。

AIが人類を絶滅に追い込むという考えは、まだまったくの推測にすぎない。そのような脅威がどのように顕在化するかは、まだ誰にもわからない。何が危険なのか、ましてや危険性の基準に対してモデルを評価するための一般的な方法は存在しない。基準やルールを設定する前に、多くの研究を行う必要がある。このため、地球温暖化を追跡・説明する「気候変動に関する政府間パネル(IPCC)」のようなAIを研究する機関が世界には必要だと言うテック企業の経営者が増えている。

テールリスクを取り除くために規制を急ぐと、政策立案者は終末論的ではないが、より差し迫った問題から目をそらすことになりかねない。また、LLMをトレーニングする際の著作物の使用や、モデルが個人データを収集する際のプライバシーの権利を規定するために、新たな法律が必要になるかもしれない。また、AIによって偽情報の作成がより容易になり、どの社会にとっても厄介な問題となる。

性急な規制は競争とイノベーションを阻害する可能性もある。計算資源と技術スキルが必要なため、強力な「フロンティア」モデルを開発している企業は今のところほんの一握りだ。新たな規制が導入されれば、既存企業は容易に囲い込まれ、競合他社を閉め出すことになりかねない。少なくとも、最大手のモデルメーカーは政府と密接に連携してルールブックを作成しているからだ。極端なリスクに焦点を当てることで、規制当局は、自由に利用でき、簡単に修正できるオープンソースモデルを警戒する可能性が高い。つい最近まで、ホワイトハウスは、企業がフロンティアオープンソースモデルをリリースすることを禁止することを検討していると噂されていた。しかし、そのようなリスクが顕在化しないのであれば、オープンソースモデルを制限することは、競争の重要な源泉を制限することにしかならないだろう。

規制当局は、必要に応じて迅速に対応できるよう準備しなければならないが、不必要または有害であることが判明したルールを設定したり、制度を構築したりすることを急ぐべきではない。生成AIの方向性については、管理はおろか、それに伴うリスクを理解するにも、あまりにも知られていない。

今政府にできることは、テクノロジーとその潜在的な危険性を研究するためのインフラを整え、この問題に取り組む人々に十分なリソースを確保することである。今日の分裂した世界では、IPCCのような組織を設立し、それを繁栄させることは難しいだろう。しかし、AI関連の問題にすでに取り組んでいる組織、たとえばOECDや、モデルにアクセスすることを目的とした英国の新しいフロンティアAIタスクフォース(Frontier AI Taskforce)などは、緊密に協力することができるだろう。

ホワイトハウスが交渉し、すでに15社のプロプライエタリ(非公開の)モデルメーカーが署名している「自発的コミットメント」のように、各国政府がモデルメーカーの行動規範に合意すれば助けになるだろう。この規範は、特にモデルメーカーに対して、彼らがどのようにAIリスクを管理しているかについての情報を共有することを義務づけている。この約束に拘束力はないものの、危険な自由競争を避ける一助にはなるだろう。オープンソースのモデルメーカーも、参加するよう促されるべきである。

AIがさらに発展すれば、規制当局もどのようなリスクから身を守るのか、その結果、どのようなルールブックが必要なのかについて、はるかに優れた考えを持つようになるだろう。本格的な規制制度は、原子力発電や生物工学など、世界を変えるほどの重要性を持つ他のテクノロジーと同じようなものになるかもしれない。しかし、その実現には時間と熟慮が必要である。■

From "Governments must not rush into policing AI", published under licence. The original content, in English, can be found on https://www.economist.com/leaders/2023/10/26/governments-must-not-rush-into-policing-ai

©2023 The Economist Newspaper Limited. All rights reserved.

翻訳:吉田拓史、株式会社アクシオンテクノロジーズ

Read more

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAIは東京オフィスで、日本での採用、法人セールス、カスタマーサポートなどを順次開始する予定。日本企業向けに最適化されたGPT-4カスタムモデルの提供を見込む。日本での拠点設立は、政官の積極的な姿勢や法体系が寄与した可能性がある。OpenAIは法人顧客の獲得に注力しており、世界各地で大手企業向けにイベントを開催するなど営業活動を強化。

By 吉田拓史