GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

要点

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。


元GoogleのAI倫理学者Timnit GebruとGoogleの係争で、MIT Technology ReviewのKaren HaoはGebruが対立の原因とした論文を、共著者の共著者の一人であるワシントン大学の計算言語学の教授であるEmily M. Benderから入手し、その内容を評価した。

MIT Technology Reviewによると、元GoogleのAI倫理学者Timnit Gebruが共著した論文は、大規模言語モデルを構築する際の環境コストや大規模な言語モデルに内在するバイアス、機会費用について疑義を呈していた。

GoogleのAIチームは2018年にこのような言語モデル-BERT-を作成し、非常に高い性能を示したため、同社はBERTを検索エンジンに組み込んだ。検索はGoogleのビジネスの中で非常に有利なセグメントであり、今年の第3四半期だけでも263億ドルの収益をもたらした。一年間で2兆回の検索が実行されているとされている。

その論文は「確率的オウムの危険性について  言語モデルは大きすぎるのか?」(“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”)と題されている。

この3年間で、これらの言語モデルはますます普及し、大規模化している。今では、適切な条件の下で、説得力のある意味のある新しいテキストのように見えるものを生成したり、時には言語から意味を推定したりするのに非常に優れた能力を持っている。

より多くのパラメータとトレーニングデータを持つ言語モデルを作成しようとする傾向は、Transformerのアーキテクチャと、WebやRedditやWikipediaのようなサイトからスクレイプされた大量のトレーニングデータを使用しようとする動きに端を発している。自然言語処理のブルークスルーとなったTransformerは2017年にGoogle AIから生まれたものだ。

GoogleのBERTやALBERT、XLNetなどのバリエーションが、NvidiaのMegatron、OpenAIのGPT-2、GPT-3などのモデルと並んで、モデルを大規模化する傾向を牽引していた。GoogleのBERTが3.4億個のパラメータを持つのに対し、Megatronは83億個、MicrosoftのT-NLGは170億個、Open AIが5月に導入した現在最大の言語モデルであるGPT-31750億個のパラメータを持つ。サイズが大きくなったことで、大規模モデルは、質問応答や読解力などのタスクで高いスコアを達成したという。

環境コスト

大規模なAIモデルダウンサイドは多くの電力を消費することだ。Gebruと共著者は、大規模な言語モデルの炭素排出量と財政コストに関するEmma Strubellと共同研究者による2019年の論文を参照している。それによると、モデルに多くのデータが与えられるようになったことで、2017年以降、そのエネルギー消費量と炭素排出量が爆発的に増加している。

Strubellらの研究によると、特定のタイプの「ニューラルアーキテクチャ検索」(NAS)手法を用いた1つの言語モデルでは、平均的なアメリカの自動車5台分の生涯生産量に相当する626,155ポンド(284メートルトン)の二酸化炭素が発生する。Googleの検索エンジンを支えるGoogleの言語モデルBERTのバージョンは、Strubellの推定では、1,438ポンドのCO2換算で、ニューヨークとサンフランシスコ間の往復フライトとほぼ同じ量を排出したことになるという。

大規模モデルに潜むバイアス

米テクノロジーメディアVentureBeatも草稿を入手し、評価した。同社のKyle Wiggersはこう記述している。「Google AIのリーダーであるJeff Deanは、Gebruの退社後に従業員に宛てたメールに、論文は最近の研究への言及が欠けているため、Googleの出版基準を満たしていないと書いていた。しかし、どう見てもGebruらの研究は、Google、OpenAI、Facebook、Microsoftなどが展開しているモデルのような、よく理解されている問題にスポットを当てただけに見える。VentureBeatが入手した草稿では、大規模な言語モデルの導入に伴うリスクについて議論している。その中には、疎外されたコミュニティへの二酸化炭素排出量の影響や、特定のグループの人々を対象とした罵倒的な言葉、ヘイトスピーチ、侮辱、ステレオタイプ、その他の非人間的な言葉を永続させる傾向がある」。

大規模な言語モデルは、指数関数的に増加するインターネット上のテキストからできる限りのデータを収集しようとしていることを意味し、そこに溢れる人種差別的、性差別的、その他の罵倒的な言葉が訓練データに含まれてしまうリスクがあることを意味する。

訓練データセットは非常に大規模であるため、これらの埋め込まれたバイアスをチェックするためにデータセットを監査することは困難だ。Gebruたちは、「文書化するには大きすぎるデータセットに依存する方法論は、本質的にリスクが高い」と結論づけている。

言語モデルが有害な言葉を噴出するというGebruらの主張もまた、同様に広範な先行研究に基づいている。言語領域では、モデルを訓練するために使用されるデータの一部は、性別、人種、宗教的な線に沿った偏見が蔓延しているコミュニティから得られることが多い。AI研究会社のOpenAIは、「いたずらな」や「吸われた」などの単語を女性の代名詞の近くに置いたり、「イスラム教」を「テロリズム」などの単語の近くに置いたりすることにつながる可能性があると指摘している。

インテル、マサチューセッツ工科大学(MIT)、カナダのAIイニシアチブCIFARの研究者が4月に発表したような他の研究では、GoogleのBERTとXLNet、OpenAIのGPT-2、FacebookのRoBERTaなど、最も人気のあるモデルのいくつかから高レベルのステレオタイプのバイアスが検出されている。

アレン人工知能研究所の研究チームは、AI言語モデルから人種差別的、性差別的、またはその他の有害な反応を引き出すためのデータセット「RealToxicityPrompts」を作成し、モデルがこれらの反応を好むかどうかを測定する方法として試みた所、現在の機械学習技術では有毒な出力を十分に防ぐことができず、より良いトレーニングセットとモデルアーキテクチャの必要性が際立っていると主張している。

ミドルベリー国際問題研究所によると、このバイアスは悪意のある行為者によって利用され、「個人を暴力的な極右過激派のイデオロギーや行動に過激化させる」誤報や誤報、あからさまな嘘を広めることで不和を煽る可能性があるという。

研究の機会費用

Gebruたちは、3つ目の課題として、誤った研究努力が行われるリスクを挙げている。ほとんどのAI研究者は、大規模な言語モデルは実際には言語を理解しておらず、単に言語を操作することに優れているだけだと認めている。

草稿を読んだMIT Tech ReviewのHaoは「この研究努力は機会費用を引き起こすとGebruらは書いている。言語の理解を達成する可能性のあるAIモデルや、より小さく、より慎重にキュレーションされたデータセットで良い結果を得ることができるAIモデルの研究には、それほど多くの努力が費やされていない」と書いている。

ただ、Googleを含むビッグテック企業は、言語をより正確に操作するモデルで儲けることができるため、そのモデルに投資し続けている。

オンラインでは、AI倫理分野の他の多くのリーダーたちが、同社が彼女を押しのけたのは、彼女が同社の研究の中核的なラインとビジネスにとって不都合な真実のためだと主張している。1,600人以上のGoogleスタッフと2,500人以上の支持者も抗議文に署名している。

Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen

Photo: "775208327EC00106_TechCrunch"by TechCrunch is licensed under CC BY 2.0

Read more

新たなスエズ危機に直面する米海軍[英エコノミスト]

新たなスエズ危機に直面する米海軍[英エコノミスト]

世界が繁栄するためには、船が港に到着しなければならない。マラッカ海峡やパナマ運河のような狭い航路を通過するとき、船舶は最も脆弱になる。そのため、スエズ運河への唯一の南側航路である紅海で最近急増している船舶への攻撃は、世界貿易にとって重大な脅威となっている。イランに支援されたイエメンの過激派フーシ派は、表向きはパレスチナ人を支援するために、35カ国以上につながる船舶に向けて100機以上の無人機やミサイルを発射した。彼らのキャンペーンは、黒海から南シナ海まですでに危険にさらされている航行の自由の原則に対する冒涜である。アメリカとその同盟国は、中東での紛争をエスカレートさせることなく、この問題にしっかりと対処しなければならない。 世界のコンテナ輸送量の20%、海上貿易の10%、海上ガスと石油の8~10%が紅海とスエズルートを通過している。数週間の騒乱の後、世界の5大コンテナ船会社のうち4社が紅海とスエズ航路の航海を停止し、BPは石油の出荷を一時停止した。十分な供給があるため、エネルギー価格への影響は軽微である。しかし、コンテナ会社の株価は、投資家が輸送能力の縮小を予想している

By エコノミスト(英国)
新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

新型ジェットエンジンが超音速飛行を復活させる可能性[英エコノミスト]

1960年代以来、世界中のエンジニアが回転デトネーションエンジン(RDE)と呼ばれる新しいタイプのジェット機を研究してきたが、実験段階を超えることはなかった。世界最大のジェットエンジン製造会社のひとつであるジー・エアロスペースは最近、実用版を開発中であると発表した。今年初め、米国の国防高等研究計画局は、同じく大手航空宇宙グループであるRTX傘下のレイセオンに対し、ガンビットと呼ばれるRDEを開発するために2900万ドルの契約を結んだ。 両エンジンはミサイルの推進に使用され、ロケットや既存のジェットエンジンなど、現在の推進システムの航続距離や速度の限界を克服する。しかし、もし両社が実用化に成功すれば、超音速飛行を復活させる可能性も含め、RDEは航空分野でより幅広い役割を果たすことになるかもしれない。 中央フロリダ大学の先端航空宇宙エンジンの専門家であるカリーム・アーメッドは、RDEとは「火を制御された爆発に置き換える」ものだと説明する。専門用語で言えば、ジェットエンジンは酸素と燃料の燃焼に依存しており、これは科学者が消炎と呼ぶ亜音速の反応だからだ。それに比べてデトネーシ

By エコノミスト(英国)
ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

ビッグテックと地政学がインターネットを作り変える[英エコノミスト]

今月初め、イギリス、エストニア、フィンランドの海軍がバルト海で合同演習を行った際、その目的は戦闘技術を磨くことではなかった。その代わり、海底のガスやデータのパイプラインを妨害行為から守るための訓練が行われた。今回の訓練は、10月に同海域の海底ケーブルが破損した事件を受けたものだ。フィンランド大統領のサウリ・ニーニストは、このいたずらの原因とされた中国船が海底にいかりを引きずった事故について、「意図的なのか、それとも極めて稚拙な技術の結果なのか」と疑問を呈した。 海底ケーブルはかつて、インターネットの退屈な配管と見なされていた。現在、アマゾン、グーグル、メタ、マイクロソフトといったデータ経済の巨人たちは、中国と米国の緊張が世界のデジタルインフラを分断する危険性をはらんでいるにもかかわらず、データの流れをよりコントロールすることを主張している。その結果、海底ケーブルは貴重な経済的・戦略的資産へと変貌を遂げようとしている。 海底データパイプは、大陸間インターネットトラフィックのほぼ99%を運んでいる。調査会社TeleGeographyによると、現在550本の海底ケーブルが活動

By エコノミスト(英国)