有名なAI倫理研究者の一人であり、GoogleのAI倫理チームの共同リーダーでもあるティムニット・ゲブル(Timnit Gebru)は、GoogleのAIのバイアスを強調する論文を執筆したせいで解雇されたと主張した。Google AI側は辞意を受理したと反論しており、双方の主張が食い違っている。

スタンフォード人工知能研究所の卒業生であるGebruは、人工知能の倫理的利用の第一線で活躍している。彼女は2018年に発表した画期的な研究で、顔認識ソフトウェアが白人男性にはほぼ正確に機能していたのに対し、黒っぽい肌の女性を35%も誤認していたことを明らかにしている。

彼女は、辞表を出していないのに、彼女が辞表を受理したと伝えられた、と主張している。ニューヨーク・タイムズ紙のインタビューに対し、Gebruは、事の発端は、彼女が他の6人の研究者と書いた研究論文の会社の扱いに起因すると語った。その論文は同社の検索エンジンを支えるGoogleによって構築された自然言語処理言語技術の新種の欠陥を指摘していたとされる。

論文は、これらの自然言語処理システムは、何千冊もの書籍やウィキペディアのエントリー、その他のオンライン文書を含む膨大な量のテキストを利用して学習するが、文書には人種、性別などの差別が含まれており、技術は結局、偏った、憎しみに満ちた言葉を生成する可能性がある、と主張したとされる。

彼女と他の研究者たちが論文を学会に投稿した後、Googleのマネージャーが、学会から論文を撤回するか、彼女の名前とグーグルの他の従業員の名前を削除するよう要求したとGebru博士は述べている。彼女はそれ以上の議論をせずにそうすることを拒否し、1日の夜に送信されたメールで、 会社はGoogleが彼女の論文を撤回を望んでいる理由を説明することができない場合、彼女は適切な時間の量の後に辞任するだろうと語ったという。

この結果、辞表を出していないのに、辞表を受理したと伝えられた、と彼女は主張している。

これに対し、AI部門トップのJeff Deanのメールでは、彼女の電子メールを辞表と捉えたと主張している。コピーを入手したと報じたニュースレターメディアPlatformerによると、このように書かれている。

「Timnitは4人の仲間のGooglerと外部の共同研究者との共著論文を作成したが、この論文は当社の審査プロセスを経る必要があった(外部から投稿された論文の場合も同様だ)。私たちは、Timnitや他のGooglerたちが執筆した論文を何十本も承認し、発表してきたが、ご存知のように、論文は内部審査の過程で変更が必要になることがよくある(あるいは投稿には不適当と判断されることもある)。残念なことに、この特定の論文は締め切りの1日前にしか共有されておらず、この種のレビューには2週間を必要としている」。

「その後、機能横断的なチームが通常のプロセスの一環としてこの論文を審査し、著者には出版基準を満たしていないことが通知され、その理由についてのフィードバックが与えられた。関連する研究を無視しすぎていた。例えば、大規模モデルの環境への影響については触れているが、その後の研究ではるかに高い効率性が示されていることは無視していた。 同様に、言語モデルにおけるバイアスについての懸念を提起しているが、これらの問題を緩和するための最近の研究を考慮に入れていなかった。著者らが最終的にMeganと私が下した決定に非常に失望していたのは理解している」

「Timnitは、Meganと私が論文のレビューの一環として話をしたり相談したりしたすべての人の身元と正確なフィードバックを明らかにすることを含め、彼女がGoogleで働き続けるためにいくつかの条件を満たすことを要求するメールを返信してきた。Timnitは、我々がこれらの要求を満たさなかった場合、彼女は終了日を決めて仕事をし、辞職すると書いていた。私たちは、Googleを辞めるという彼女の決断を受け入れ、尊重する」

Gebruはまた、Google Brain Women and Alliesのメーリングリストに送ったメールの中で、Googleでの女性の雇用に進展がないことへの不満を表現し、進捗状況を作るために失敗した場合の説明責任の欠如を非難した。Platformerによると、Gebruのメールには「あなたの人生は、代表性の低い人々を擁護し始めたときに悪化し始める。あなたは他のリーダーを動揺させ始める」「これ以上の文書や会話では何も達成できない」と書かれていた。

GebruがGoogleを退社したのは、全米労働関係委員会(NLRB)がGoogleに対して、同社が労働者の組織化に関与した2人の従業員をスパイし、違法に解雇したことを明らかにした苦情を提出したのと同じ日だった。

Googleに来る前、GebruはAlgorithmic Justice Leagueの創設者であるJoy Buolamwiniと共に、IBMやMicrosoftなどの主要ベンダーの顔認識システムの性能を評価するGender Shadesプロジェクトを立ち上げた。Joy Buolamwiniとの2017年の論文では、顔認識は白人男性には最も効果があり、肌の色が濃い女性には最悪の傾向があると結論づけられている。その研究と、2019年に行われたBuolamwiniとDeborah Rajiによるその後の研究は、この技術をどのように規制するかを決める法律家の間で、またアルゴリズムによるバイアスがもたらす脅威についての人々の態度において、大きな影響力を持っている。

GebruはGoogleの社員として、2019年にMargaret Mitchell、Inioluwa Deborah Rajiらとともに、機械学習の実務者がAIモデルを使用する前に評価するためのモデルに関するベンチマーク性能情報を提供するためのフレームワークであるモデルカードについての論文を執筆した。Google Cloudは昨年、一部のAIにモデルカードの提供を開始し、今夏には開発者が独自のモデルカードを作れるようにするための「モデルカードツールキット」を導入した。

今年の夏、Gebruは元同僚のEmily Dentonとともに、主催者が「我々全員のための必見」と呼んだComputer Vision and Pattern Recognition(CVPR)で、コンピュータビジョンにおける公平性と倫理についてのチュートリアルを率いた。その直後、彼女はFacebookのAI研究ディレクターYann LeCunとAIの偏りについて公の場で口論になってもいた。

Photo: "775208327EC00105_TechCrunch"by TechCrunch is licensed under CC BY 2.0