バイデン政権のAI規制、大手企業に有利に働く?
今週発布されたバイデン政権のAI規制は、少数による閉鎖的なAI開発を志向する大手テクノロジー企業に有利に働き、オープンな共同開発を潰しかねない。AI研究者からは、競争をリードする大手企業が脅威を煽って政府を動かしている、と非難の声が出ている。
今週発布されたバイデン政権のAI規制は、少数による閉鎖的なAI開発を志向する大手テクノロジー企業に有利に働き、オープンな共同開発を潰しかねない。AI研究者からは、競争をリードする大手企業が脅威を煽って政府を動かしている、と非難の声が出ている。
ホワイトハウスは今週、AI開発をめぐる大統領令(EO)を発表した。このEOは、AI企業に対する新たな規則を制定し、連邦政府諸機関に安全ガイドラインの策定を課すものだ。EOは、強力なAIシステムの開発者は、一般公開前に政府に報告し、安全性テストの結果を共有しなければならないと義務付けている。
この命令により、マイクロソフト、グーグル、アマゾンなどのAIシステムは、さまざまな政府部門の監視下に置かれることになり、この分野は自主規制の道から遠ざかることになる。EOは、緊急時に政府が産業界を直接的に統制できる国防生産法(DPA)をバックボーンとし、国家安全保障上の理由から、企業・研究機関に対してコンプライアンスを強制することができる。
この行政府主導のアプローチは、EUで見られる立法的手法とは対照的であり、EUのAI法のような厳格なリスク分類を避けている。人工知能(AI)の規制は、その有益な影響と有害な影響の両方の可能性、急速な進化、幅広い経済的影響から、重要な課題となっている。ジレンマは、規制の適切なペースを見つけることにある。遅すぎると潜在的なリスクが未然に防がれない可能性があり、速すぎるとイノベーションが阻害される可能性があることだ。
米シンクタンクの戦略国際問題研究所(CSIS)は、EOは業界大手の自発的なコミットメントの上に成り立っており、EOを効果的に実施するためにはこのコミットメントを維持しなければならないと指摘した。EOが発行された同じ日に、G7はAIのための指導原則と行動規範を発表しており、EOの目的と国際的な整合性がある程度取れていることを示唆していることを評価した。
法学や公共政策の有識者からはEOへの賛成が示された。「人工知能は、そのパワーのゆえに統治される必要がある」と、倫理的なAIを研究するエモリー大学法学部のイフェオマ・アジュンワ教授は、サイエンティフィック・アメリカン(SA)に対して語っている。「AIツールは、社会にとって悲惨な結果をもたらす可能性のある方法で行使される可能性があります」。
「ホワイトハウスがこの大統領令に盛り込もうとしていることはたくさんある。非常に重要な前進だと思います」と、AIガバナンスを研究するスタンフォード大学のダニエル・ホー教授(法学・政治学)もSAに対して語った。ホーは全米人工知能諮問委員会の委員を務めている。
さらにSAによると、AIガバナンスを研究するアリゾナ州立大学のゲイリー・マーチャント法学教授は、連邦政府内でAIの基準を策定することで、このEOは民間部門に波及する可能性のある新たなAI規範を生み出す一助になるかもしれないと語った。
政府内でAIに関する基準が確定することは、莫大なビジネス機会を意味している。マイクロソフトの連邦政府担当バイスプレジデントであるCandice LingはEOを支持し、「米国政府機関にとって、AIにおける最新の進歩は、業務を最適化し、より優れたユーザー体験を提供し、国家安全保障を強化するまたとない機会を提供する」と声明で述べ、同社のクラウドAzureを介した多様なAIサービスの提供を列挙した。
一方、規制反対派の急先鋒の1人は、メタのAIチーフであるヤン・ルカンだ。ルカンは、EOの発布前から、早急な人工知能の規制が既存の大企業の優位を固め、新規競争者の参入障壁を高めると警鐘を鳴らしている。彼は、現段階のAI技術が学習能力においては猫に匹敵するかもしれないが、それ以上のものではないと指摘し、AIの可能性に対して楽観的な見方を示している。彼は、大企業がAIの安全を理由に規制を求めているが、これは実際には競争を阻害し、技術革新のペースを鈍らせると主張している。
ルカンは、大統領令発布以降には、「OpenAIのサム・アルトマン、Google DeepMindのデミス・ハサビス、Anthropicのダリオ・アモデイは、大規模な企業ロビー活動を行っている」と舌鋒を強めている。メタのLLMであるLlamaシリーズをオープン化しているように、ルカンはオープンなAIプラットフォーム支持者である。彼の主張の主旨は、EOはAI開発のオープン性を壊し、大手テクノロジー企業と新興企業という限られたプレイヤーにのみ野心的なAIを作る権利を与えることになる、というものだ。
高名なAI研究者のアンドリュー・ウン(スタンフォード大学教授)はAIモデルの開発ではなく、その応用地点に規制を設けるべきと主張した。「AIを規制する適切な場所はアプリケーション層である。ヘルスケアや自動運転などのAIアプリに、厳しい要件を満たすよう要求し、監査に合格させることで、安全性を確保することができる。しかし、基礎モデルの開発に不必要に負担を加えることは、AIの進歩を遅らせることになる」と彼はXで語った。
「AIの将来にとって私が最も恐れているのは、(人類の絶滅など)過剰に誇張されたリスクによって、テックロビイストたちがオープンソースを抑制し、イノベーションを潰すような規制を制定してしまうことだ」と語った。