要点

5月上旬に発表されたUC Berkeley Center for Long-Terminal Cybersecurity (CLTC)のケーススタディでは、組織がAIの倫理原則をどのように実践しているかを検証している。倫理原則はしばしば漠然とした言い回しのルールだが、原則を実践に転換することが急務となっている状況だ。

原則を実践に変換する段階に

CTLCは、多くのAI倫理やガバナンスの議論は、何が必要かということには焦点を当てているが、原則に明記されている目標を実行するために必要な実践やポリシーにはあまり焦点を当てていない、と考えている。

この調査では、OpenAIによるGPT-2の展開、OECDとG20によるAI原則の採用、マイクロソフトにおけるAI、倫理、工学・研究における効果(AETHER)委員会の創設に焦点を当てている。OECD政策観測所は2月に発足し、36の加盟国のために原則を実践に移すことを支援している。

今回のケーススタディには、マイクロソフトのAETHER委員会と7つの内部ワーキンググループの構成や、米連邦刑務所での顔認証の利用など政策決定に果たす役割について、これまでに公表されていなかった情報が含まれているという。

この研究によると、2016年以降、AIガバナンスは3つの段階を経てきたという。近年のテック企業や政府による約85の倫理原則のリリースが第一段階を示し、その後、プライバシー、人間のコントロール、説明可能性、公平性などのテーマについてのコンセンサスが続いた。2019年に始まり、現在も続いている第三段階は、原則を実践に変換することだ。この第三段階では、原則を採用した企業や国家は、約束を守るよう圧力に直面するとCLTCは主張する。

「AIの原則や戦略をどのように運用するかの決定は、現在、ほぼすべてのAI関係者が直面しており、意味のある形で実践や方針を決定しています」と報告書は記述する。「AI企業や組織が導入努力を採用することへのプレッシャーが高まっており、その意図から外れていると認識された行為者は、従業員、ユーザー、一般市民からの反発に直面する可能性があります。AIの原則をどのようにして大規模に運用するかについて今日決定することは、今後何十年にもわたって大きな意味を持ち、AIの利害関係者には、既存の取り組みから学び、AIがより良い未来の構築に役立つことを確実にするための具体的なステップを踏む機会があります」。

ケーススタディは、マイクロソフトのチーフサイエンティストであるエリック・ホーヴィッツやOECDのスタッフなど、各組織のリーダーへのインタビューによって一部がまとめられている。

組織的、技術的、規制的なロックイン効果のため、マイクロソフトやOECDのような初期の取り組みは特に影響力があり、AI倫理原則の普遍性が高まることで、AIの原則と戦略を確実に実現するための方法を確立する圧力が高まる可能性がある。

たとえば、OpenAIは、9ヶ月に渡ってGPT-2をリリースしたことに対して研究者からの反発に直面したが、は、モデルをリリースすることの倫理的な意味合いを考慮するよう開発者に促したことは評価に値すると考えています。彼女は、AIシステムの社会的影響を認め、表明することはまだ一般的ではないと指摘している。今年初めて、世界最大のAI研究会議であるNeurIPSでは、社会への影響や金銭的な利害の衝突に対処することを著者に求めることになった。

AI倫理と説明可能性

また、この研究では、IBMの説明可能なAIツールキット「AI Explainability 360 Open Source Toolkit」やMicrosoftのInterpretMLのようなフレームワークや監視委員会、ツール、さらにはカリフォルニア州のCCPAや欧州連合のGDPRのようなプライバシー規制など、原則を実践に移すための最近の取り組みもまとめている。

先月、GoogleやOpenAIのような組織の一連のAI研究者は、倫理原則を実践に移し、より強固なシステムを作り、AIが人類にとって有益なものであり続けることを保証するために、バイアスバウンティのようなものを実装したり、第三者監査市場を作ったりすることを組織に推奨した。3月、Microsoft Researchのリーダーたちは、AETHERと10数団体のエンジニア50人近くとともに、AI実践者のためのAI倫理チェックリストを発表した。

Image: The Visitor’s Center at Microsoft Headquarters campus is pictured July 17, 2014 in Redmond, Washington. (Stephen Brashear/Getty Images)