メタのAIチーフ、規制は大手企業の支配を強化するだけと主張

メタのAIチーフ、規制は大手企業の支配を強化するだけと主張
2018年、フランス、エコール・ポリテクニークで講演するコンピューター科学者、ヤン・ルカン(フェイスブックAIチーフサイエンティスト)。 (CC BY-SA 2.0)

メタのチーフAIサイエンティストであるヤン・ルカンは、AI規制は大手テクノロジー企業の支配を強化するだけと語り、波紋が広がっている。AIの進歩はまだ道半ばであり、人類を絶滅させる可能性を語るのは時期尚早とも指摘した。


フィナンシャル・タイムズ(FT)のインタビューで、世界有数のAI研究者であるヤン・ルカンは、「人工知能の早すぎる規制は、大手テクノロジー企業の支配を強化し、競争を阻害するだけだ」と述べた。

AI will never threaten humans, says top Meta scientist
Artificial intelligence is still dumber than cats, says pioneer Yann LeCun, so worries over existential risks are ‘premature’

ヤン・ルカンは、「人工知能の早すぎる規制は、大手テクノロジー企業の支配を強化し、競争を阻害するだけだ」と述べた。彼の主張の中心は、AIはまだ「学習能力という点では猫に匹敵しうるが、今のところ我々にはない」ことにある。彼は、AI懐疑論者が「AIの安全性を装って規制を望んでいる」と言う一方で、それを「逆効果」と断言した。「AIの研究開発を規制することは、信じられないほど逆効果だ」「大手企業は、AIの安全性を口実に規制を望んでいる」。

ChatGPTのような生成AIツールがこの1年で急速に爆発的に普及したことで、超知的人工知能の潜在的な将来リスクに対する懸念に火がついた。5月には、OpenAIのCEOであるサム・アルトマン、Google DeepMindのCEOであるデミス・ハサビス、AnthropicのCEOであるダリオ・アモデイが、AIは将来、核戦争に匹敵する「絶滅」のリスクをもたらす可能性があると警告する公的声明に署名した。

現在のモデルが、汎用人工知能(AGI)にどれだけ近いかをめぐっては、激しい議論が交わされている。マイクロソフトが今年初めに公開した未査読の研究では、OpenAIのGPT-4モデルは、人間のような方法で推論問題にアプローチする方法で「AGIの火花」を示したと述べている。

Sparks of Artificial General Intelligence: Early experiments with GPT-4
Artificial intelligence (AI) researchers have been developing and refining large language models (LLMs) that exhibit remarkable capabilities across a variety of domains and tasks, challenging our understanding of learning and cognition. The latest model developed by OpenAI, GPT-4, was trained using…

しかし、ルカンは、彼らと意見を別にしている。AIを取り締まれという要求は、「AIを安全に開発できるのは自分たちだけだ」と主張する一部の大手ハイテク企業の「優越コンプレックス(実際の失敗を隠す優越の態度)」から生じている、とルカンは言う。「それは信じられないほど傲慢だと思う。私はその正反対だと思う」。

現在の最先端のAIモデルを規制することは、ジェット機が発明されていなかった1925年にジェット航空業界を規制するようなものだ、と彼は言う。「学習能力において猫に匹敵するようなシステムの設計ができるまでは、実存的リスクに関する議論は非常に時期尚早だ」

ルカンは、現在のAIモデルは一部の研究者が主張するほど有能ではないと述べた。「AIは世界の仕組みを理解していない。計画を立てる能力もない。本当の意味での推論はできない。私たちは、17歳でもできるような、20時間程度の練習で運転できるようになるような、完全に自律的な自動運転車をまだ持っていない」と彼は言った。

メタの研究者は、OpenAIとGoogle DeepMindは、この問題の複雑さについて「一貫して楽観的すぎる」と述べ、AIシステムが人間レベルの知能に近づくまでには、まだいくつかの「概念的なブレークスルー」が必要だと述べた。しかし、たとえそうなったとしても、人間が人間の行動を律する法律を制定するのと同じように、AIシステムに「道徳性」をエンコードすることで、AIシステムを制御することは可能である、とルカンはみている。

「私たちよりも賢い機械が私たちを支援するようになることは間違いありません。問題は、それが恐ろしいことなのか、それともエキサイティングなことなのかということだ。私は、その機械が私たちの言いなりになるのだから、それはエキサイティングなことだと思う」

AI人類絶滅論を非難

また、ルカンに言わせると、AIが人類を絶滅させるかもしれないという懸念は「とんでもない」もので、現実よりもSFに基づいているという。ルカンは、人々は『ターミネーター』のようなSF映画によって、超知的なAIが人類に脅威をもたらすと思い込まされてきた、と主張した。

ルカンのAI人類絶滅論をめぐる意見は、最近AI規制に賛成を表明したジェフリー・ヒントンのような人々の意見と対立するものだ。ヒントンは、現在の大規模な言語モデルに基づく人工知能が非常に高度になり、悪質な人間行為者を通じてであれ、ある種の自己認識を通じてであれ、人類に危害を加える可能性があるとほのめかした

AIパイオニアのヒントンも「驚異の進歩」に警鐘を鳴らす
「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントンは1日、自身が開発に携わったAI技術の「危険性」について自由に発言するため、先週Googleの職を辞したことを認めた。

ルカンはヒントンの弟子である。ヨシュア・ベンジオの3人とともに「コンピュータ科学のノーベル賞」とも称されるチューリング賞を受賞している。彼らは1990年代から2000年代にかけてディープラーニングという新領域を開拓し、コンピュータビジョンや音声認識の分野で大きな進歩をもたらし、顔認識からAIによる電子メールの提案まで、今日のAIアプリケーションを支えていることが評価された。

1980年代後半、技術が懐疑的な目で見られる「AIの冬」の中、ベンジオ、ヒントン、ルカンの3人は、現代のAIの基礎となるニューラルネットワークに焦点を当てた。疑心暗鬼に陥っていたこの時期の彼らの堅実な取り組みが、現在のAIの成功の基礎を築いた。2012年、ヒントンのチームがニューラルネットワークを使い、画像認識のコンテストで既存のアルゴリズムを大差で上回ったとき、重要なブレークスルーが起こった(このときヒントンのもとでニューラルネットワークを開発したAI研究者はOpenAIを率いる研究者となっている)。

ルカンは、ヒントンが危惧する「社会への脅威」については全く否定的で、ほとんどの人々は、思考する機械が普通の人間より賢くなる時代を想像する『ターミネーター』のような映画に影響されすぎていると述べた。代わりに彼は、AIモデルは「世界の仕組みを理解していないだけだ。彼らは計画を立てる能力がない。本当の『推論』ができないのだ」と言った。

[訂正]:本校初出時に最終段落の「普通の人間」の部分に卑猥な言葉が挿入されておりました。お詫びして訂正いたします。私のPCがクラック(ハック)されている可能性が高く、第三者によって挿入された可能性があります。今後はセキュリティを強化し、再発防止に備えたいと思います。

Read more

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAIは東京オフィスで、日本での採用、法人セールス、カスタマーサポートなどを順次開始する予定。日本企業向けに最適化されたGPT-4カスタムモデルの提供を見込む。日本での拠点設立は、政官の積極的な姿勢や法体系が寄与した可能性がある。OpenAIは法人顧客の獲得に注力しており、世界各地で大手企業向けにイベントを開催するなど営業活動を強化。

By 吉田拓史