各国政府はAIの取り締まりを急ぐべきではない[英エコノミスト]
![各国政府はAIの取り締まりを急ぐべきではない[英エコノミスト]](/content/images/size/w1200/2023/10/cash-macanaya-X9Cemmq4YjM-unsplash--1-.jpg)
AIは私たちを殺すのか? 一部の技術者は、その答えはイエスだと本気で信じている。ある悪夢のようなシナリオでは、AIが最終的に人類を出し抜き、コンピューターや工場を乗っ取り、殺人ドローンで空を埋め尽くすというものだ。また別のシナリオでは、ChatGPTのような生成AIのような大規模な言語モデル(LLM)が、悪者に壊滅的なサイバー兵器や致命的な新種の病原体を作り出すノウハウを与えてしまう。
このような終末のシナリオについて、今こそ真剣に考える時である。その可能性が高まったからではなく、その可能性がどれほど高いかは誰にもわからないが、世界中の政策立案者がその対策に腐心しているからである。欧州連合(EU)は拡大的なAI法を最終決定し、ホワイトハウスはLLMを対象とした大統領令を間もなく発表する見込みだ。11月1日と2日には、英国政府が世界のリーダーや技術界のボスを招集して「AI安全サミット」を開催し、AIモデルがもたらすかもしれない極度のリスクについて話し合う。
政府は、世界を大きく変える可能性のあるテクノロジーを無視することはできないし、人類に対する信頼できる脅威は真剣に受け止めるべきである。規制当局はこれまで遅すぎた。2010年代にソーシャルメディアを取り締まるためにもっと早く行動していればと多くの人が思っており、今度こそ先頭に立ちたいと思っている。しかし、性急な行動には危険も伴う。あまりに急ぎすぎると、政策立案者たちは、間違った問題を対象とし、現実の問題に対しては効果がなく、イノベーションを阻害するようなグローバルなルールや制度を作りかねない。
AIが人類を絶滅に追い込むという考えは、まだまったくの推測にすぎない。そのような脅威がどのように顕在化するかは、まだ誰にもわからない。何が危険なのか、ましてや危険性の基準に対してモデルを評価するための一般的な方法は存在しない。基準やルールを設定する前に、多くの研究を行う必要がある。このため、地球温暖化を追跡・説明する「気候変動に関する政府間パネル(IPCC)」のようなAIを研究する機関が世界には必要だと言うテック企業の経営者が増えている。