ロサンゼルス市警(LAPD)の警官はデータマイニング会社パランティア(Palantir)のデータ分析ツールを使用して「警察と接触した人の個人情報(恋愛や仕事を含む)を保存」し、犯罪行動を予測しようとしていることが明らかになった。BuzzFeed Newsがどその個人情報収集の実態を報じ、波紋を広げている。

ロス市警の警官は、パランティアの物議を醸している法執行ツールを使用して、警察と接触した人の名前、住所、電話番号、ナンバープレート、友人関係、恋愛、仕事などをリストアップするように訓練されている。LAPDの警官の半数以上(約5,000人の警官)が、世界最大の監視会社の1つであるパランティア社のアカウントを持っている。

しかし、米国の情報公開法に基づいてBuzzfeed Newsが入手し公開した文書は、パランティアのツールを利用した監視が逮捕された人、有罪判決を受けた人、または犯罪行為の疑いをかけられた人に限定されていないことを明らかにしている。

「中級コース」と「上級コース」の警察官向けの訓練文書には、警察が強力な法執行ツール「パランティア・ゴッサム」を使って、犯罪の目撃者や被害者から、犯罪が起きた地域に住んでいるだけの人まで、遭遇したすべての人の詳細な情報を収集し、保存する方法を教えられていることが示されている。

訓練文書は、ロス市警のデータ収集がどれほど細かく住民のデータを収集しているかを明らかにしている。 中級と上級の8時間のコースでは、彼らは、警官が名前、人種、性別、ギャングのメンバー、入れ墨、傷跡、友人や家族によって人々を検索する方法を教えていることを示している。

このパランティア・ゴッサムは、名前、自宅住所、メールアドレス、車、令状、顔写真、写真などを検索することができる。また、友人、家族、パートナー、隣人、同僚などの仲間のデータを収集して追跡したり、車両の犯罪行為へのリンクを追跡したりすることもできる。

2012年から2017年にかけて、このシステムはカリフォルニア州の警察、保安官事務所、空港警察、大学、学区など、他のいくつかの機関とデータを共有することにも関与していたとBuzzfeed Newsが報じた。

つまり、ロサンゼルス学校警察署、コンプトン統一学区警察署、エルカミーノカレッジ、カルポリ大学警察部、カリフォルニア州立大学のすべてが警察データをLAPDに送信し、それをシステムに読み込ませていた。

BuzzFeedが入手した「LAPD Palantir Usage Metrics」という文書によると、ほぼ5,000人、LAPD警官の半数以上がPalantirにアカウントを持っていたという。同じ文書によると、2016年には、それらの警官は1万件以上の事件をサポートするために6万件の検索を実行したという。

LAPDのPalantirデータベースには自動車登録の情報が含まれており、カリフォルニア州の運転免許証を持っている人がPalantirに登録される可能性があることを意味する。また、ロサンゼルスとその周辺地域の信号機や料金所から撮影された10億枚のナンバープレートの写真も含まれている。2015年以降にロサンゼルスを運転したことがあれば、警察は自分の車がいつどこで撮影されたのか、いつ撮影されたのかを確認し、名前をクリックすることで自分のすべてを知ることができる。

しかし、アルゴリズムは正確さを保証するものではない。LAPDのPalantirの利用を研究した社会学者のサラ・ブレイン(Sarah Brayne)はBuzzFeed Newsに対し、人々は個人が犯罪を犯す証拠としてソフトウェアを利用していると語った。「警察が一生の間に10回も興味を持った人物がいるとしたら、基本的には『煙があれば火事もある』という考え方です」と、ブレインは語った。

「このツールは人種差別を反映し続けるだけだ」と、擁護団体Stop LAPD Spying Coalitionのオーガナイザーであるジェイミー・ガルシアはBuzzfeed Newsに語っている。ラテン系の擁護団体Mijenteのオーガナイザーであるジャシンタ・ゴンザレスは、黒人と茶色のコミュニティに対する過剰な取り締まりを強化しているとも述べている。

社会の中の差別を強化する危険性

このシステムは、犯罪とは全く関係のない無実の人も含めて、刺青や傷跡、恋愛関係、交友関係などの複雑な詳細情報を無差別に保存する。これらのアルゴリズム駆動の予測警察システムは、データの中にあるバイアスを強化するフィードバックループを引き起こす危険性が指摘されてきた。

現在は、アメリカ全土で白人警官による黒人男女の複数の「殺人」をきっかけに、警察の残虐行為と人種差別に終止符を打つことを要求する抗議が全国的に高まっている時期であり、黒人の不当な立件の危険性がより高まっている。

AI犯罪予測の功罪 社会のバイアスを強化する危険性
近年米国の警察は犯罪予測ソフトウェアを採用している。現実の現象を機械学習モデルが強化する「フィードバックループ」の可能性、人種的偏見の永続化等を助長する危険性も指摘されている。

カリフォルニア、フロリダ、メリーランドなどの場所の警察署ですでに使用されているPredPol(プレドポル)は、カリフォルニア大学がロサンゼルス警察署と共同で実施した実験に触発されて、UCLAのJeff Brantingham教授の会社が開発した。

Brantinghamは、彼のチームの研究は、アルゴリズムに基づいた予測が犯罪を2倍予測し、現場で使用した場合、既存のベストプラクティスの2倍の犯罪を防止できることを実証したと説明したが、しかし、米国の研究者がPredPolが犯罪を予測する方法を調べたとき、彼らは何か不穏なものを見つけた。Danielle Ensignらの研究によれば、ソフトウェアは単に「フィードバックループ」を引き起こし、その地域の真の犯罪率に関係なく、警官が特定の地域(通常は人種的少数派が多い地域)に繰り返し送られる。

Photo: "Palantir pavilion, World Economic Forum, Davos, Switzerland"by gruntzooki is licensed under CC BY-SA 2.0