物理学者が「AIの公平性」に挑み始めた

スイス・ジュネーブ郊外の大型ハドロン衝突型加速器(LHC)は、宇宙の内部構造を研究するために建設された。フランスとスイスの国境にまたがる地下27キロのリングの中にあるこの装置は、ほぼ光速で陽子を衝突させて、自然界の最小の構成要素である陽子を生成する。LHCの研究者たちは、新しい粒子を探したり、2012年に最も有名な発見とされたヒッグス粒子を含む既知の粒子を精査したりしている。

このような発見の原動力となっているのは、複雑なソフトウェアエンジンだ。LHCの物理学者マウリツィオ・ピエリーニによると、粒子の衝突は1秒間に約10億回発生するため、この施設では1秒間に約40テラバイトのデータが生成される。そのため、研究者たちは、ノイズから信号を抽出するための広範なツールを開発してきた。解析の一環として、衝突の詳細なシミュレーションを作成することも含まれている。

これにより、物理学者は自分たちが知っていることを正確にレイアウトすることができ、予想外のことをより簡単に発見することができる。これらのシミュレーションには大規模な計算能力が必要であり、研究者は、2027年に約6倍のデータ量を生成するためにLHCをアップグレードする準備をしているため、データの生成を加速することになる。必要なシミュレーションをスケールアップするために、現在の技術トレンドである人工知能が考慮されている。

具体的には、ピエリーニは、GAN(Generative adversarial network)と呼ばれるAIアルゴリズムを用いて、陽子衝突のシミュレーションを開始した。これらのアルゴリズムは、リアルに見える偽データを作成する能力があることで知られている。

実際、おそらくGANの最も悪名高いアプリケーションは、存在しないオブジェクトを生成することも含まれている。GANの産物として知られるディープフェイクとは、人間の顔の画像を偽造して、実際には起こらなかった出来事を動画にしたり、他人の体に人の画像を貼り付けたりするために使われてきたソフトウェアである。その通り、トロールファームが有名人のポルノを作るのに使っているのと同じアルゴリズムが、宇宙の最も深い謎を解き明かすのに役立つかもしれないのだ。物理学者はAIの最も不気味なツールのいくつかに崇高な目的を見つけた。

ここにも、AIアルゴリズム倫理問題の例がある。個人データに適用すると、人種的に偏った間違いを犯すことがある。研究によると、市販の顔認識ソフトウェアは、黒人の顔を使った場合、白人の顔を使った場合よりもはるかに高い確率で間違いを犯すことがわかっている。1月には、ミシガン州警察の顔認識アルゴリズムが、黒人のロバート・ジュリアン・ボルチャック・ウィリアムズを万引きで誤認し、顔認識ソフトウェアの欠陥による米国初の誤認逮捕例となった。

しかし、フェルミ研究所の物理学者ブライアン・ノルドは、顔認識技術から派生したアルゴリズムを使用して、曲がった時空によって光がゆがんでいる異常な銀河を特定した。黒人であるノルドは、宇宙が速く膨張している理由の手がかりを求めて、これらの銀河を研究している。

ノルドがAIを使い始める前の2014年、彼と同僚はこれらの銀河を目で分類した。「これらの天体を特定するのは大掛かりな努力でした "とノルド氏は言う。"そこで、他のアルゴリズムを調べ始めたところ、偶然にも顔認識に出会いました」とノルド氏は言います。コンピュータにとって、顔も銀河もデータにすぎないのですから。しかし、ノルド氏にとっては、このことは、このような研究がどのようにして研究室から抜け出すのかという懸念を抱かせている。物理学者が銀河のためのアルゴリズムを作ったとしても、誰かがそれを監視のために再利用したとしたらどうでしょうか?

このような歴史的な観点から、物理学者は倫理的なAI開発においてユニークな役割を担っていると考えている。ノルドを含む一部の物理学者は、1つの主要な問題、すなわち、これらのアルゴリズムがなぜ機能するのかを解明することに執着することで、その役割を担ってきた。専門家はAIを説明するのに「ブラックボックス」という言葉を頻繁に使う:コンピュータは猫と犬を区別できるが、どうやって正しい答えにたどり着いたのかは明らかではない。"私は、もしAIシステムをより高度なものにすることができれば、それが可能になると信じている。

AIアルゴリズムを使ってLHCの実験データを解析しているプリンストン大学のサバンナ・タイスは最近、米国物理学会に向けてエッセイを発表し、物理学者がAIの倫理的な会話にもっと積極的に参加することを奨励している。エッセイの中で彼女は、物理学者はアルゴリズムの「解釈可能性」を向上させる上で重要な役割を果たすことができると書いている。言い換えれば、タイスは物理学者がAIのソーセージがどのように作られているかを解明できると考えている。彼女は以下のようなことを主張した。

  • 私たちがすでに技術的なディストピアの中で生きている。世界中の政府や組織はすでに、保釈金の設定、雇用、医療アクセスなどに関する重要な意思決定を行うために、理解できず、テストもされていない第三者のアルゴリズムに頼っている。
  • AIのこのような有害な影響は、技術革新の速度が立法監視の発展をはるかに上回っていることと、技術企業が自主規制に消極的であった(または拒否してきた)こともあって、一部では発生している。
  • しかし、変化が訪れようとしている。活動家や研究者は、政府に対して特定の技術を制限するか、または完全に禁止するよう求める声が高まっており、多くの国ではAI導入のための基準を開発しており、大小を問わずテクノロジー企業は倫理と公平性のためのチームを作ったり、成長させたりしている。
  • 私が2016年にAIカンファレンスに参加するようになってから、現在のAIにおける倫理に関するワークショップや論文、会話の数が増えているのを見てきた。今年、世界最大級のAI研究会議であるNeural Information Processing Systems meeting (NeurIPS) では、すべての投稿論文に「倫理的側面と将来の社会的影響」を議論し、潜在的な利益相反を認めるインパクト・ステートメントを含めることが求められている。
  • しかし、物理学者は既存のMLの手法を再利用して物理学の問題に適用しているだけではない。物理学の大学院生やポスドクの多くは、この分野を離れて,AI研究者や技術企業や研究機関のエンジニアになっている。他の物理学者の中には,両方の分野を発展させる学際的な研究を行っている人もいる。
  • 物理学者は、AIの理解と制御において重要な役割を果たす機会を得ている。物理学の研究では、アルゴリズムの偏りや解釈可能性の慎重な分析が必要となることが多く、これはAIシステムの公平性を向上させるための重要な方法だ。物理学者は、基礎的なAI研究空間においてますます影響力を持つようになっており、真の変化をもたらす機会を得ている。

ディープラーニングアルゴリズムにおける不確実性定量化

AIを解明するための1つの戦略は、物理学者が難解な数学的詳細を理解しているデータを使ってアルゴリズムを訓練することである。例えば、ノルドと同僚のジョアン・カルデイラは、振り子が前後に揺れているシミュレーションデータをニューラルネットワークがどのように処理するかを研究した。

ノルドとカルデラは、基本的に振り子の動きから地球の重力の強さを推定するために機械学習アルゴリズムを訓練した。振り子の長さを測定するために使用した測定テープに欠陥があった場合や、汗だくの高校生が測定中に指が滑ってしまった場合など、不正確な測定値が含まれている。そして、アルゴリズムがどのようにこれらの誤差を処理して重力の最終的な推定値を得ているかを研究した。

アルゴリズムの誤差の理解はまだ初期段階だが、最終的な目標は、アルゴリズムの誤差を明確かつ正確に伝える方法を開発することだ。物理学者たちは、AI研究を機械学習の主流のコミュニティに統合しようと、今も努力を続けている。倫理的な会話における自分の役割を理解するために、多くの分野の社会科学者、倫理学者、専門家との連携に取り組んでいる。

参考文献

  1. Maurizio Pierini. Deep Learning Applications for LHC experiments
  2. Bobak Hashemi, Nick Amin, Kaustuv Datta, Dominick Olivito, Maurizio Pierini. LHC analysis-specific datasets with Generative Adversarial Networks. arXiv:1901.05282. 16 Jan 2019.
  3. João Caldeira, Brian Nord Deeply Uncertain: Comparing Methods of Uncertainty Quantification in Deep Learning Algorithms.arXiv:2004.10710. 22 Jul 2020.