顔から犯罪性を「予測」するアルゴリズムが非難轟々

ハリスバーグ科学技術大学の教授と大学院生は顔を基に人の犯罪性を「予測」するアルゴリズムを提案し非難轟々となった。彼らのような「人種科学」を行う試みは、機械学習の分野で散見されており、社会への影響は、研究の際の必要不可欠なチェックポイントとなりそうだ。

顔から犯罪性を「予測」するアルゴリズムが非難轟々

要点

ハリスバーグ科学技術大学の教授と大学院生は顔を基に人の犯罪性を「予測」するアルゴリズムを提案し非難轟々となった。彼らのような「人種科学」を行う試みは、機械学習の分野で散見されており、社会への影響は、研究の際の必要不可欠なチェックポイントとなりそうだ。

「誰かが犯罪者になるかどうかを予測できる顔認識プログラム」

5月上旬、ハリスバーグ科学技術大学からのプレスリリースでは、2人の教授と大学院生が、誰かが犯罪者になるかどうかを予測できる顔認識プログラムを開発したと主張していた。リリースによると、この論文は大手学術出版社である『Springer Nature』誌に掲載されるという。

論文「A Deep Neural Network Model to Predict Criminality Using Image Processing」は、そのアルゴリズムは、「80%の精度と人種的な偏りをともなわずして、彼らの顔の写真だけに基づいて、誰かが犯罪者であるかどうかを予測することができる」と主張した。プレスリリースは、大学のウェブサイトから削除された。

1,000人以上の機械学習研究者、社会学者、歴史家、倫理学者がこの論文を非難する公開書簡を発表し、Springer Natureはツイッターでこの研究を出版しないことを確認した。

しかし、研究者たちは問題はそれだけではないと言う。書簡の署名者は、総称して「重要技術連合(CCT)」と名乗り、この論文の主張は「根拠のない科学的な前提、研究、方法に基づいており、それは長年に渡って否定されてきた」と述べている。書簡は、人種的な偏見なしに犯罪性を予測することは不可能であると主張している。なぜなら、「犯罪性」というカテゴリー自体が人種的に偏っているからだ。

データサイエンスや機械学習の進歩により、近年では犯罪や犯罪性を予測することを目的としたアルゴリズムが数多く登場している。しかし、それらのアルゴリズムを構築するために使用されるデータに偏りがあれば、アルゴリズムの予測も偏ってしまう。米国では人種に偏った取り締まりが行われているため、犯罪性をモデル化した予測アルゴリズムは、刑事司法制度にすでに反映されているバイアスを再現するだけである、と書簡は主張している。

このような偏見を顔認識にマッピングすることは、頭の大きさや鼻の幅などの測定値で人種間の違いを識別する技術を使って、その人種の生来の知性、徳、犯罪性を証明すると称していた何世紀も前の忌まわしい「人種科学」を思い起こさせるものだった。

人種科学はすでに論破されたが、機械学習を使って生得的な属性を「予測」したり、診断を提供したりする論文は、微妙ではあるが憂慮すべき復活を遂げつつある。

「人種科学」を唱えたチェーザレ・ロンブローゾ。ロンブローゾが根拠とした論理はほぼ現代科学が否定している。(CC BY 4.0)

「人工知能が誰かの顔をもとにゲイかストレートかを見分ける」

2016年、上海交通大学の研究者たちは、自分たちのアルゴリズムが顔の分析を使って犯罪性を予測できると主張した。スタンフォード大学とグーグルのエンジニアは、このアプローチを、誰かの頭の形から人格属性を推測する、優生論者の間で人気のある論破された人種科学である新しい「人相学」と呼び、論文の主張に反論した。

2017年、スタンフォード大学の研究者の2人組は、人工知能が誰かの顔をもとにゲイかストレートかを見分けることができると主張した。LGBTQ団体はこの研究を非難し、自動化されたセクシュアリティ識別の概念が同性愛を犯罪化している国ではどれほど有害なものになり得るかを指摘した。2019年、イギリスのキール大学の研究者たちは、子供たちのYouTubeの動画で訓練されたアルゴリズムが自閉症を予測できると主張した。今年の初めには、『Journal of Big Data』誌に掲載された論文は、「顔の画像から性格の特徴を推測する」ことを試みただけでなく、チェーザレ・ロンブローゾを引用し、犯罪性は遺伝するという考え方を支持した。

これらの論文はそれぞれ反発を巻き起こしたが、どれも新製品や医療ツールには結びつかなかった。しかし、ハリスバーグ科学技術大学の論文の著者たちは、そのアルゴリズムは法執行機関が使用するために特別に設計されたと主張した。

「犯罪は現代社会における最も顕著な問題の一つである」と、ハリスバーグ科学技術大学の博士課程の学生で元ニューヨーク警察の警察官であるジョナサン・コーンは、削除されたプレスリリースからの引用で述べている。「顔の画像から[人物]の犯罪性を識別するなどの認知作業を行うことができる機械が開発されれば、法執行機関や他の諜報機関が指定された地域での犯罪を未然に防ぐ上で大きなアドバンテージを得ることが可能になる」。

2018年、ACLUは、Amazonの顔認識製品「Rekognition」が議員を犯罪者と誤認し、白人よりも黒人の役人を誤認することが多かったことを明らかにした。アマゾンは最近、この製品を警察に販売することを1年間のモラトリアムと発表した。

Read more

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAI、法人向け拡大を企図 日本支社開設を発表

OpenAIは東京オフィスで、日本での採用、法人セールス、カスタマーサポートなどを順次開始する予定。日本企業向けに最適化されたGPT-4カスタムモデルの提供を見込む。日本での拠点設立は、政官の積極的な姿勢や法体系が寄与した可能性がある。OpenAIは法人顧客の獲得に注力しており、世界各地で大手企業向けにイベントを開催するなど営業活動を強化。

By 吉田拓史
アドビ、日本語バリアブルフォント「百千鳥」発表  往年のタイポグラフィー技法をデジタルで再現

アドビ、日本語バリアブルフォント「百千鳥」発表 往年のタイポグラフィー技法をデジタルで再現

アドビは4月10日、日本語のバリアブルフォント「百千鳥」を発表した。レトロ調の手書き風フォントで、太さ(ウェイト)の軸に加えて、字幅(ワイズ)の軸を組み込んだ初の日本語バリアブルフォント。近年のレトロブームを汲み、デザイン現場の様々な要望に応えることが期待されている。

By 吉田拓史