大手テック企業はAI規制を望んでいる - しかし、彼ら自身の条件で
5月24日、ロンドンでのサム・アルトマン。カメラマン: Chris J. Ratcliffe/Bloomberg

大手テック企業はAI規制を望んでいる - しかし、彼ら自身の条件で

一般市民がリアルタイムで生成AIの欠陥を目の当たりにするにつれ、テック企業は監視を求める声をますます大きくし、関係者によれば交渉にも応じるようになったという。テック企業に聞けば、彼らは規制に反対しているのではなく、提案されているいくつかの提案が気に入らないだけだと言うだろう。

(ブルームバーグ) — Open AIのサム・アルトマン最高経営責任者(CEO)は先月、人工知能(AI)がもたらす危険性を議会に警告し、周囲を驚かせた。突然、ハイテク企業がソーシャルメディアの問題から学び、AIを異なる形で展開しようとしているように見えたのだ。さらに驚くべきことがある。彼らは政治家の助けを求めていたのだ。

しかし1週間後、アルトマンはロンドンの記者団に別の話をした。ChatGPTの生みの親の新興企業のCEOであるアルトマンは、欧州連合(EU)のルールに従うよう努力するが、それが困難であると判明した場合、EU圏内で「事業を停止する」と述べたのだ。この発言により、域内市場委員会のティエリー・ブルトン委員はアルトマンを「脅迫しようとしている」と非難した。アルトマンは翌日、自身の発言を釈明し、先週、CEOと委員が直接会談した際には、規制に関して意見が一致した。

AIの開発は前途洋々だ。この分野では今年最初の4カ月間だけで10億ドルを超えるベンチャーキャピタルからの資金調達が行われ、歯ブラシからドローンまで、あらゆるものにすでにシステムが導入されている。物事がどこまで、どれほどのスピードで進み続けるかは、政府が介入するかどうかに大きく左右されるだろう。

大手テック企業は規制を望んでいると言う。現実はもっと複雑だ。米国では、Google、Microsoft、IBM、OpenAIがAIを監督するよう議員に要請している。一方、EUでは最近、政治家たちが生成AIにガードレールを設置する法案を承認する投票を行ったが、同じ企業のロビイストたちは、ハイテク業界で最もホットな新分野を不必要に狭めることになると考え、その対策と戦っている。

ハイテクを管理するルールは、大西洋の反対側で大きく異なる。EUでは5年以上前から包括的なデータ保護法が施行されており、競争とコンテンツの節度に関する厳格なガイドラインの導入が進められている。一方、米国では20年以上にわたってほとんど規制がない。EUの近々制定されるAI法に携わる多くの関係者によれば、自国での監視を求めることは、ビッグテックにとって、欧州の法律をより有利な方向に誘導するための良いPRを生み出す方法だという。

特に、EUのソーシャルメディアやデータ保護に関する規則は世界標準となっているため、テック企業はEUを無視することはできないと認識している。今後2~3年で施行される可能性があるEUのAI法は、人工知能を規制する西側諸国政府による初の試みとなり、重大な罰則を伴う。もし企業がこの法律に違反した場合、EU圏は企業の年間売上高の6%相当の罰金を科し、EU圏での製品販売を禁止する可能性がある。EU圏は、10年以内に1兆3,000億ドル以上になると予測される世界のAI市場の20%から25%を占めると推定されている。

このため、この分野は微妙な立場に置かれている。シンクタンクDataEthicsの共同設立者であるグライ・ハッセルバルチは、この法律が制定された場合、最大のAIプロバイダーは「透明性、リスクの扱い方、モデルの展開方法を根本的に変える必要がある」と述べた。

リスキーなビジネス

ハイテクとは対照的に、法整備は遅々として進まない。2021年、欧州委員会はAI法の第一次草案を発表し、3つの政府機関、27カ国、多数のロビイストを巻き込み、今年後半に結論が出そうな交渉に次ぐ交渉のプロセスを開始した。この草案は「リスクベース」のアプローチをとっており、極端な場合にはAIを禁止する(中国で使われているような、監視された行動に基づいて市民が信用を得るソーシャルスコアリングを含む)。ただ、大半のAIはほとんど監視されないか、まったく監視されずに運用されることを認めている。

草案の大半は、「リスクの高い」ケースに対するルールに焦点が当てられている。例えば、犯罪予測や求人応募の選別のためにAIシステムをリリースする企業は、高品質なデータのみを使用するよう制限され、リスク評価の作成が義務付けられる。それ以外にも、草案はディープフェイクやチャットボットに関する透明性を義務付けた。 AIシステムと会話する際には、人々にそのことを知らせる必要があり、生成または操作されたコンテンツにはフラグを立てる必要がある。この草案では、新たな画像、動画、テキスト、コードを作成できる機械学習アルゴリズムの包括的カテゴリーである生成AIについては言及されていない。

大手ハイテク企業はこのアプローチを歓迎した。彼らはまた、要求を和らげようとした。草案では、開発者は自分たちのシステムがどのように使用されたかについて責任を負うとされているが、企業とその業界団体は、ユーザーも責任を負うべきだと主張した。Microsoftはポジションペーパーの中で、生成AIの潜在的な可能性により、企業が「導入シナリオの全範囲とそれに関連するリスクを予測する」ことは不可能であるため、「導入者によるAIシステムの実際の使用に焦点を当てる」ことが特に重要であると主張した。非公開の会議では、ハイテク企業の関係者が、AIそのものは単に使用者の意図を反映するツールに過ぎないという考えを二転三転させた。

さらに重要なのは、議員に送られた修正案によると、IBMは「汎用人工知能(AGI)」(画像認識や音声認識、音声や映像の生成、パターン検出、質問応答、翻訳などを含むさらに幅広いカテゴリー)を規制から確実に除外すること、あるいはMicrosoftの場合は、規制のチェックを行うのは顧客であることを望んでいたことだ。

多くの企業がこの姿勢を貫いている。IBMのEU担当責任者であるジャン・マルク・ルクレールは、ブルームバーグに寄せた声明の中で、「テクノロジーを一枚岩としてコントロールしようとする」のではなく、「リスク・ベースのアプローチを継続するよう求めている」と述べている。

最も強力なAIシステムの一部が監視をほとんど回避できるという考え方は、業界ウォッチャーに警鐘を鳴らした。イーロン・マスクが一部出資した非営利団体「フューチャー・オブ・ライフ」は当時、「未来のAIシステムはGPT-3よりもさらに汎用的になるだろう」とし、明確な規制が必要だと書いた。フューチャー・オブ・ライフのマックス・テグマーク会長は、「意図された限られた目的によって分類する」のではなく、「提案では、意図されたすべての用途(および予見可能な誤用)に対する完全なリスク評価を求めるべきである」と書いている。

脅威の評価

一時は各国がAGIを完全に除外することを検討したこともあったが、2022年春になると、政治家たちはAIのリスクを過小評価しているのではないかと懸念し始めた。主にフランスの働きかけにより、EU加盟国はユースケースにかかわらず、すべてのAGIを規制することを検討し始めた。

この時、それまで欧州の立法プロセスから距離を置いていたOpenAIが重い腰を上げた。2022年6月、同社の公共政策担当責任者はブリュッセルで関係者と会談した。その直後、同社は欧州委員会といくつかの国の代表にポジションペーパーを送り、『Time』誌が最初に報じたように、いくつかの提案が「不注意によって、すべてのAGIシステムがデフォルトで捕捉されることになるかもしれない」と「懸念」していると述べた。

しかしEU諸国は、すべてのAGIがリスク評価などの高リスク要件に準拠することを義務づけ、詳細は後で整理することにした。この文言を含む法律案は、ChatGPTのリリースからわずか1週間後の12月に承認された。

チャットボットの能力と空前の人気に衝撃を受けた欧州議会のメンバーは、次の草案でさらに厳しいアプローチをとった。2週間前に承認されたその最新版では、OpenAIのような「基盤モデル」の開発者は、大規模言語モデル(LLM)を訓練するために使用される著作権で保護された資料を要約し、システムが民主主義と環境にもたらす可能性のあるリスクを評価し、違法なコンテンツを生成できない製品を設計しなければならないと義務付けられている。

AI法の主執筆者2人のうちの1人、ドラゴス・トゥドラチェは、「結局のところ、私たちが生成AIモデルに求めているのは、ちょっとした透明性なのです」と説明する。「もし、『アルゴリズムが悪事にさらされる』危険性があるのなら、そのためのセーフガードを提供する努力が開発者側に必要なのです」。

Meta、Apple、Amazonはほとんど沈黙を守っているが、他の主要な開発者たちは反発している。Googleは議員へのコメントの中で、国会の規制は事実上、AGIをハイリスクでないにもかかわらずハイリスクとして扱うことになると述べた。各社はまた、新しい規則が既存の規則に干渉する可能性があると抗議し、いくつかの企業はすでに独自の規制を導入していると述べた。業界団体CCIAのボニファス・デ・シャンプリは、「風評被害の可能性だけでも、企業がユーザーの安全に大規模な投資をする動機としては十分だ」と述べた。

AIに関する上院司法小委員会の公聴会でのサム・アルトマン。

早期の規制は大企業に有利に

一般市民がリアルタイムで生成AIの欠陥を目の当たりにするにつれ、テック企業は監視を求める声をますます大きくし、関係者によれば交渉にも応じるようになったという。アルトマンとGoogleのスンダル・ピチャイが5月末にEU規制当局との面会ツアーに乗り出した後、競争責任者のマルグレーテ・ベスタガーは、大手ハイテク企業が透明性とリスク要件に歩み寄っていることを認めた。

このアプローチは「非常に現実的」であり、規制と戦う開発者は「歴史に逆行し、自らのビジネスモデルを危険にさらすことになる」と付け加えた。

また、規制を早期に遵守することは、大企業が市場支配力を確保するための手段になりかねないという批判もある。ベルリンにあるハーティー・スクールのジョアンナ・ブライソン教授(倫理とテクノロジー)は、「もし今政府が介入してくれば、彼らはリードを固めることができ、誰が自分たちの近くに来るかを知ることができる」と説明する。

テック企業に聞けば、彼らは規制に反対しているのではなく、提案されているいくつかの提案が気に入らないだけだと言うだろう。Microsoftの広報担当者は、「我々は、Microsoftが技術スタックのいくつかのレベルで規制されることを最初から受け入れている」と語った。同社はまた、安全基準を確保しライセンスを発行するための新たなAI監督機関の設立を支持する声も上げている。

同時に、テック企業や業界団体は、国会や加盟国によるAI法の変更に対して反発を続けている。開発者たちは、規制が実際にどのようなものになるのか、また例えばOpenAIがChatGPTが民主主義や環境に与える影響をどのように評価するのか、より詳細な説明を求めている。開発者たちは、ある種のパラメーターを受け入れる一方で、他のパラメーターに異議を唱える場合もある。

例えば、ブルームバーグが確認したコメントによると、OpenAIは4月に国会議員に書簡を送り、モニタリングとテストのフレームワーク、そしてAGIのための新しい標準セットを支持することを表明した。Googleは最近、米国における規制の「スポーク・アンド・ハブ」モデルの支持を表明しており、監視を一元化するのではなく、多くの異なる機関に分散させるよう求めている。Googleはコメントの要請に応じなかった。

しかし、AIの金儲けの可能性がよりはっきりと見えてきたことで、一部の政治家は業界の意見を受け入れ始めている。フランスの元デジタル担当大臣から技術コンサルタントに転身したセドリック・オーは先月、行き過ぎた規制は欧州の競争力を損なう恐れがあると警告した。彼はエマニュエル・マクロン仏大統領に支持され、議会の採決直後のフランスの技術会議で、EUはAIを過剰に取り締まらないよう留意する必要があると発言した。

AI法の最終的な採決が行われるまで、EUが実際にどの程度までAI技術を規制することになるかは不透明だ。しかし、交渉担当者が可能な限り迅速に動いたとしても、企業が同法に準拠する必要が生じるのは2025年ごろになるだろう。そしてその間に、この分野は前進している。

--取材協力:Anna Edgerton、Benoit Berthelot

Big Tech Companies Want AI Regulation — But on Their Own Terms

By Jillian Deutsch

© 2023 Bloomberg L.P.

翻訳:吉田拓史

Comments