AI界重鎮とマスクら、大規模言語モデル(LLM)開発の6カ月休止を求める

AI界の重鎮とイーロン・マスク、業界幹部のグループは、OpenAIが新たに発表したGPT-4よりも強力な大規模言語モデル(LLM)のトレーニングを、社会と人類に潜在するリスクを排除するため、6カ月間休止するよう公開書簡で呼びかけた。

Pause Giant AI Experiments: An Open Letter - Future of Life Institute
We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.

非営利団体Future of Life Instituteが発行し、AI界の重鎮Yoshua BengioとStuart Russell、マスク、Stability AI CEOのEmad Mostaque、Alphabet傘下のDeepMindの研究者を含む1000人以上が署名したこの書簡では、このような設計に対する共有安全プロトコル開発、実施、独立専門家の監査を要求し、高度AI開発の一時中止を求めている。

書簡はまた、経済的・政治的混乱という形で、人間と競争するAIシステムによる社会と文明への潜在的なリスクを詳述した。「ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、より強力なデジタルマインドを開発し展開するための制御不能な競争に陥っている」と書簡には書かれている。

書簡は、有益なAIの開発を導くことを目的に、 2017年に提唱された研究・開発に関する23のガイドラインである「アシロマAI原則(The Asilomar AI Principles)」を引き合いに出し、LLM開発者に対し、ガバナンスの整備や規制当局について政策立案者と協力するよう呼びかけた。

AI Principles - Future of Life Institute
At a 2017 FLI conference, AI scientists and researchers developed the highly influential Asilomar AI governance principles. Add your signature.

この手紙に署名したニューヨーク大学名誉教授のゲイリー・マーカスは、「この手紙は完璧ではないが、その精神は正しい。我々は、その影響をよりよく理解するまでは、速度を落とす必要がある」とロイターに対し述べた。