OpenAIがヒトの能力を超える「超知能」の規制を訴える

人類社会は、ヒトの能力を超えたAIの登場を真剣に議論する時期を迎えた。AIの進歩は目覚ましく、さまざまな分野で超知能が登場するシナリオもありうる。我々は非常に興味深い時代に生きている。


OpenAI共同創設者のサムアルトマン、グレッグ・ブロックマン、イリヤ・スツケヴェルは、昨日発表した声明で、今後10年以内にAIシステムがほとんどの領域で専門家レベルを超え、現在の大企業と同程度の生産活動を行うようになることが考えられる、と断言した。

このようなスーパーインテリジェンス(超知能)の台頭を念頭に、アルトマンらは3つの提言をした。

  1. 調整の必要性: 超知能の開発は、安全性を確保し、これらのシステムが社会にスムーズに統合されるようにするため、主要な開発努力の間で一定の調整が必要だ。
  2. IAEA(国際原子力機関)に似た機関の設立: 超知能の努力が一定の性能閾値を超えた場合、システムの検査、監査の要求、安全基準への準拠のテスト、展開の程度やセキュリティレベルに制限を設けるなど、国際的な権威に監視されるべき。
  3. 超知能を安全にする技術的能力の必要性: 超知能を安全にする方法は、まだ開かれた研究問題であり、これに多大な努力を注いでいる。

アルトマンは先週、米上院の公聴会で証言し、議員に対して規制を呼びかけていた。このブログはOpenAIの主張を整理し、明文化したものだ。

超知能はもはや夢物語ではない

超知能、あるいは汎用人工知能(AGI)の構築を訴える議論が、非現実的なものとみなされる時代は終わったようだ。

  • AGIは数年以内に実現も。英AI研究所Google DeepMindのCEOであるデミス・ハサビスは、数年以内に何らかの形でAGIが実現可能であると述べた。「AGI技術の開発は、科学的手法を使って慎重に行うべきであり、非常に慎重に制御された実験を行い、基本的なシステムが何をするのかを理解することが大切」
  • AGIの第一歩。MicrosoftはGPT-4が「機能の広さと深さを考えるとAGIの初期版と見るのが妥当だ」と主張。同モデルは、言語の習得を超えて、数学やプログラミング、ビジョン、医学、法律、心理学など、多岐にわたる新たな困難な課題を解決できることを根拠にしている。

文脈:AIが及ぼし得る脅威

AIが著しい進歩を示す中、安全性と規制をめぐる議論は最高点に達している。

  • パイオニア研究者も警鐘を鳴らす。「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントン博士は最近、自身が開発に携わったAI技術の「危険性」について自由に発言するため、Googleを退職した。ヒントンはインタビューで、AIが人々の仕事を奪うことや、大規模な偽情報作戦が繰り広げられることを懸念点に挙げた。AIの予想をはるかに超えた進歩の速度にも危機感を覚えているという。
  • ホワイトワーカーの大失業? 英AI研究所Google DeepMindの共同設立者のムスタファ・スレイマンは、AIの進歩は、今後10年間でホワイトカラー労働者を脅かし、「深刻な数の敗者」を生み出すだろうと述べた
  • 「新たなマッキンゼー」。SF作家のテッド・チャンはマッキンゼーが企業のホワイトワーカーのリストラの口実を与えたのと同じようなことが、AIによってもたらされることを危惧している。
  • すでにネオラッダイト運動も発生。ハリウッドの脚本家組合は待遇向上のためにストライキを実行した。その要求にはAIの使用範囲に制限を設けることも含まれている。映画やドラマが放送から配信形式へと変わるにつれて、新進の脚本家たちは経験を積むチャンスを失いつつあり、AIの利用はこの状況をさらに深刻化する可能性があるという。
  • 開発休止の請願。AI界の重鎮ヨシュア・ベンジオとスチュアート・ラッセル、イーロン・マスク、Stability AI CEOのエマド・モスタク、DeepMindの研究者を含む1,000人以上が6カ月間休止するよう公開書簡に署名(マスクはその後GPUを買い占め、AI企業を公式に創業)。
  • 経済成長にはいい影響がある? ゴールドマン・サックスの最近の調査では、生成AIの進歩により、生産性が向上するため、10年間で世界の年間国内総生産(GDP)を7%押し上げることができると予測