
AI規制は必要不可欠、そして複雑だ:Noah Feldman ハーバード・ロースクール教授
政府による規制は、AIにとって必要なものであり、いずれも注目すべき欠点を持っているということだ。しかし、私たちは今すぐにでもその整理を始める必要があるのだ。
(ブルームバーグ・オピニオン) -- AI開発の一時停止を求める声が成功するかどうかにかかわらず、AIには規制が必要になる。それに匹敵するほどの変革能力を持つ歴史上のあらゆるテクノロジーは、何らかのルールの適用を受けてきた。その規制がどのようなものであるべきかは、重要かつ複雑な問題であり、私や他の人々は、今後数ヶ月から数年の間にそれについて多くの記事を書くことになるだろう。
しかし、必要な規制の内容に触れる前に、重要な閾値の問題がある。AIを規制すべきなのは誰なのか? 政府であるならば、政府のどの部分が、どのように規制するのか? 政府であれば、政府のどの部分で、どのように規制するのか。産業界であれば、イノベーションと安全性のバランスをとるために、どのようなメカニズムが適切なのか。
まず、政府の規制から、私たちのアプローチの指針となるべき基本原則を提案したいと思う。民間の自主規制については、今後のコラムに譲ることにする(情報公開:私はMetaを含むAIに関わる多くの企業の顧問を務めている)
まず、AIをめぐる議論につきまとう「AIが人類社会に存亡の危機をもたらす可能性」について説明しよう。2022年に行われたAI研究者へのアンケートでは、半数近くの回答者が、AIが最終的に人類滅亡のような「極めて悪い」結果をもたらす可能性が10%以上あると回答していることがよく知られている。
注意点もある。連絡を取った研究者のうち、アンケートを返してくれたのは17%に過ぎず、最も心配している研究者ほど回答しやすかったということなのかもしれない。それでも、回答した人の4分の1は、極めて悪い結果のリスクを0%としている。とはいえ、この結果は印象的である。
AIが人類の生存を脅かす存在になるのであれば、現実の世界では、政府による本格的な規制が必要になるはずだ。ベンチャー資金を調達して、核ミサイルを製造し、あらゆる人に販売する会社を立ち上げることができないのは、そのためだ。核兵器は人類に明白な存亡の危機をもたらす。そのような力をコントロールするのに適した主体は、政府だけだ。核不拡散とは、どの国の政府が核兵器にアクセスできるかを制限するための取り組みに与えられる名称である。もちろん、多くの人々の考えでは、政府でさえも、このような危険な大量破壊の原動力を任せられるべきではない。
だから、核兵器に関する基本的な規制ルールはこうだ。ただし、政府がどうにかして核兵器を手に入れることはできない。民間資本が平和的な原子力発電事業に資金を提供する役割を果たすとしても、それは、原子力発電をいつ、どこで、どのように展開するかを決定する政府の規制に完全に従属する形で行われるのである。
ここで重要な教訓がある。民主主義であれ権威主義であれ、政府の基本的な存在意義は国民を守ることである。もし政府が、AIがもたらす現実的で近接した存亡の危機を真剣に考えるなら、政府はAI企業を事実上支配し、国家安全保障上の資産として規制することになるだろう。既存のAI企業は、武器や兵器の製造業者と同じように、厳しく規制され、安全保障上の資格を持つ科学者が配属され、規制と政府契約の組み合わせによって実質的に監督する国家安全保障国家と密接なつながりを持つことになる。
政府によっては、AI企業を国有化したり、AIの研究開発を全面的に禁止したりするかもしれない。こうした行動は過激に聞こえるかもしれない。しかし、地球上のどの政府も、国民や自国、そして世界を破壊する可能性があると判断した技術を、民間に管理させるつもりはないだろう。
もし、あなたがこのような結果をとてもあり得ないと思うのであれば、あるレベルでは、あなたはAIが実存的なリスクをもたらすと本気で思っていない可能性が高い。あるいは、AI企業があまりにも強力になりすぎて、政府が買収したり閉鎖したりすることができなくなると考えているかもしれない。このような妄想は、暗号通貨は規制されないという妄想と同類で、規制の最も基本的な真実を無視している: 企業は人間で構成されている。企業は人である。そして人は、どこにいようと、投獄する覚悟のある政府によって規制され、支配される可能性がある。
しかし、政府がAI産業を買収するというのは、最も極端な話だ。AIが害を及ぼす可能性はあるが、存亡の危機をもたらすものではないと判断すれば、より穏当な規制が可能になる。
社会がある結果を十分に悪いと考えるとき、私たちは刑法を使ってそれを違法化する。その結果を引き起こした場合、刑務所に入ることができるのだ。AIを導入して詐欺を働いたり、ストーカー行為をして他人に危害を加えたりした人が、刑事責任を負うことは容易に想像できる。そもそも有害なAIを作った人に刑事責任を課す法律が制定されることも想像できる。
そして、違反すると罰金で罰せられる法定民事規制がある。民事責任を脅かすことで、AIのさまざまな結果を抑止するような法令を想定することができる。場合によっては、AIの製造者や使用者を介して既存の法令が適用されるかもしれない。例えば、人種差別や性差別は民事責任で処罰される。AIがこうした社会的な過ちを犯した当事者は、既存の法律ですでに責任を負う可能性がある。より具体的な法令を追加することは容易である。
3つ目の穏健な選択肢は、行政規則だ。証券取引委員会、食品医薬品局、環境保護庁を思い浮かべてほしい。議会は、AIを規制するための新しい機関を設立することができる。この機関には、必要な規則を制定し、それを施行する権限が与えられ、行政の専門知識を備えることができる。
このような機関は、時に産業界に取り込まれると考えられており、有能な規制当局を産業界から引き抜かなければならないような場合には、そのリスクは特に大きくなる。また、極端な話、AIによる効率化で職を失う可能性のある労働者の団体など、産業界と対立する相手から、機関が働きかけを受けることもある。また、機関は官僚主義を生み出し、それに伴って無駄も生み出する。しかし、AIのような複雑で専門的な分野は、議会が直接管理するよりも、行政が管理する方が良い結果を生むかもしれない。
最後に、最も手軽な規制の方法として、訴訟がある。米国の不法行為責任制度では、技術の製造者や販売者に「合理的配慮」と呼ばれるものを要求している。もしそうでなければ、誰かがその製造者や販売者に損害賠償の責任を負わせるために訴訟を起こすことができる。
この制度の優れた点は、最も腹立たしい点でもあるが、製造者や販売者に正確に何をすべきかを指示しないことだ。私たちは、メーカーや販売者が信頼できるコスト・ベネフィット分析を行い、合理的に必要な範囲で、予見できる被害を防ぐために多くの費用を費やすことを期待する。そのうえで、私たちは、メーカーや販売者の判断を仰ぐのだ。もし、間違ったことをしたと思ったら、その会社を文字通り廃業に追い込むことも辞さない。
別の言い方をすれば、不法行為制度は、リスクのコストを民間の行為者に負わせるものだ。私たちはこの制度に慣れ親しんでいるため、資本が投資する際には、事後的に多額の不法行為責任を負うリスクを織り込んでおく必要があることを当然のこととして考えている。投資家はこれを好まない。しかし同時に、破産法や有限責任会社は、資本をある程度保護することができる。つまり、社会保険としての不法行為制度は、投資家にとって大きなプラス面もあるのだ。だからこそ、他の国々がより先行的な規制と事後的な責任の軽減を組み合わせているにもかかわらず、アメリカはいまだにこの制度を採用しているのだろう。
つまり、これらの政府による規制は、AIにとって必要なものであり、いずれも注目すべき欠点を持っているということだ。しかし、私たちは今すぐにでもその整理を始める必要があるのだ。
Regulating AI Will Be Essential. And Complicated.: Noah Feldman
© 2023 Bloomberg L.P.
翻訳:吉田拓史、株式会社アクシオンテクノロジーズ