GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

要点

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。


元GoogleのAI倫理学者Timnit GebruとGoogleの係争で、MIT Technology ReviewのKaren HaoはGebruが対立の原因とした論文を、共著者の共著者の一人であるワシントン大学の計算言語学の教授であるEmily M. Benderから入手し、その内容を評価した。

MIT Technology Reviewによると、元GoogleのAI倫理学者Timnit Gebruが共著した論文は、大規模言語モデルを構築する際の環境コストや大規模な言語モデルに内在するバイアス、機会費用について疑義を呈していた。

GoogleのAIチームは2018年にこのような言語モデル-BERT-を作成し、非常に高い性能を示したため、同社はBERTを検索エンジンに組み込んだ。検索はGoogleのビジネスの中で非常に有利なセグメントであり、今年の第3四半期だけでも263億ドルの収益をもたらした。一年間で2兆回の検索が実行されているとされている。

その論文は「確率的オウムの危険性について  言語モデルは大きすぎるのか?」(“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”)と題されている。

この3年間で、これらの言語モデルはますます普及し、大規模化している。今では、適切な条件の下で、説得力のある意味のある新しいテキストのように見えるものを生成したり、時には言語から意味を推定したりするのに非常に優れた能力を持っている。

より多くのパラメータとトレーニングデータを持つ言語モデルを作成しようとする傾向は、Transformerのアーキテクチャと、WebやRedditやWikipediaのようなサイトからスクレイプされた大量のトレーニングデータを使用しようとする動きに端を発している。自然言語処理のブルークスルーとなったTransformerは2017年にGoogle AIから生まれたものだ。

GoogleのBERTやALBERT、XLNetなどのバリエーションが、NvidiaのMegatron、OpenAIのGPT-2、GPT-3などのモデルと並んで、モデルを大規模化する傾向を牽引していた。GoogleのBERTが3.4億個のパラメータを持つのに対し、Megatronは83億個、MicrosoftのT-NLGは170億個、Open AIが5月に導入した現在最大の言語モデルであるGPT-31750億個のパラメータを持つ。サイズが大きくなったことで、大規模モデルは、質問応答や読解力などのタスクで高いスコアを達成したという。

環境コスト

大規模なAIモデルダウンサイドは多くの電力を消費することだ。Gebruと共著者は、大規模な言語モデルの炭素排出量と財政コストに関するEmma Strubellと共同研究者による2019年の論文を参照している。それによると、モデルに多くのデータが与えられるようになったことで、2017年以降、そのエネルギー消費量と炭素排出量が爆発的に増加している。

Strubellらの研究によると、特定のタイプの「ニューラルアーキテクチャ検索」(NAS)手法を用いた1つの言語モデルでは、平均的なアメリカの自動車5台分の生涯生産量に相当する626,155ポンド(284メートルトン)の二酸化炭素が発生する。Googleの検索エンジンを支えるGoogleの言語モデルBERTのバージョンは、Strubellの推定では、1,438ポンドのCO2換算で、ニューヨークとサンフランシスコ間の往復フライトとほぼ同じ量を排出したことになるという。

大規模モデルに潜むバイアス

米テクノロジーメディアVentureBeatも草稿を入手し、評価した。同社のKyle Wiggersはこう記述している。「Google AIのリーダーであるJeff Deanは、Gebruの退社後に従業員に宛てたメールに、論文は最近の研究への言及が欠けているため、Googleの出版基準を満たしていないと書いていた。しかし、どう見てもGebruらの研究は、Google、OpenAI、Facebook、Microsoftなどが展開しているモデルのような、よく理解されている問題にスポットを当てただけに見える。VentureBeatが入手した草稿では、大規模な言語モデルの導入に伴うリスクについて議論している。その中には、疎外されたコミュニティへの二酸化炭素排出量の影響や、特定のグループの人々を対象とした罵倒的な言葉、ヘイトスピーチ、侮辱、ステレオタイプ、その他の非人間的な言葉を永続させる傾向がある」。

大規模な言語モデルは、指数関数的に増加するインターネット上のテキストからできる限りのデータを収集しようとしていることを意味し、そこに溢れる人種差別的、性差別的、その他の罵倒的な言葉が訓練データに含まれてしまうリスクがあることを意味する。

訓練データセットは非常に大規模であるため、これらの埋め込まれたバイアスをチェックするためにデータセットを監査することは困難だ。Gebruたちは、「文書化するには大きすぎるデータセットに依存する方法論は、本質的にリスクが高い」と結論づけている。

言語モデルが有害な言葉を噴出するというGebruらの主張もまた、同様に広範な先行研究に基づいている。言語領域では、モデルを訓練するために使用されるデータの一部は、性別、人種、宗教的な線に沿った偏見が蔓延しているコミュニティから得られることが多い。AI研究会社のOpenAIは、「いたずらな」や「吸われた」などの単語を女性の代名詞の近くに置いたり、「イスラム教」を「テロリズム」などの単語の近くに置いたりすることにつながる可能性があると指摘している。

インテル、マサチューセッツ工科大学(MIT)、カナダのAIイニシアチブCIFARの研究者が4月に発表したような他の研究では、GoogleのBERTとXLNet、OpenAIのGPT-2、FacebookのRoBERTaなど、最も人気のあるモデルのいくつかから高レベルのステレオタイプのバイアスが検出されている。

アレン人工知能研究所の研究チームは、AI言語モデルから人種差別的、性差別的、またはその他の有害な反応を引き出すためのデータセット「RealToxicityPrompts」を作成し、モデルがこれらの反応を好むかどうかを測定する方法として試みた所、現在の機械学習技術では有毒な出力を十分に防ぐことができず、より良いトレーニングセットとモデルアーキテクチャの必要性が際立っていると主張している。

ミドルベリー国際問題研究所によると、このバイアスは悪意のある行為者によって利用され、「個人を暴力的な極右過激派のイデオロギーや行動に過激化させる」誤報や誤報、あからさまな嘘を広めることで不和を煽る可能性があるという。

研究の機会費用

Gebruたちは、3つ目の課題として、誤った研究努力が行われるリスクを挙げている。ほとんどのAI研究者は、大規模な言語モデルは実際には言語を理解しておらず、単に言語を操作することに優れているだけだと認めている。

草稿を読んだMIT Tech ReviewのHaoは「この研究努力は機会費用を引き起こすとGebruらは書いている。言語の理解を達成する可能性のあるAIモデルや、より小さく、より慎重にキュレーションされたデータセットで良い結果を得ることができるAIモデルの研究には、それほど多くの努力が費やされていない」と書いている。

ただ、Googleを含むビッグテック企業は、言語をより正確に操作するモデルで儲けることができるため、そのモデルに投資し続けている。

オンラインでは、AI倫理分野の他の多くのリーダーたちが、同社が彼女を押しのけたのは、彼女が同社の研究の中核的なラインとビジネスにとって不都合な真実のためだと主張している。1,600人以上のGoogleスタッフと2,500人以上の支持者も抗議文に署名している。

Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen

Photo: "775208327EC00106_TechCrunch"by TechCrunch is licensed under CC BY 2.0