FacebookのAIはヘイトスピーチの検出に苦戦

要約

ソーシャルメディアにはヘイトスピーチが溢れている。Facebookはこのようなコンテンツをサイト上で禁止しているが、ユーザーから報告されたヘイトスピーチの半分しか削除されていないという報告がある。検出器に引っかからないヘイトスピーチは、ゴーストワーカーと呼ばれる非正規労働者が検出、削除している現実がある。

ヘイトスピーチの氾濫

ソーシャルメディアのコンテンツにはヘイトスピーチが氾濫している。米国では、アフリカ系アメリカ人の4人に1人が人種や民族を理由にオンラインで標的にされ、ヒスパニック系の10人に1人が標的にされている(Duggan, 2017)。この問題は、Facebook、Google、Microsoft、TwitterがAnti-Defamation League (ADL)と提携して「サイバーヘイト問題解決ラボ」を設立し、増大するオンラインヘイトの潮流に対処するために悪化している。

企業がユーザーの表現を規制することができる方法の1つは、利用規約とコミュニティ基準だ。これらのポリシーにより、ソーシャルメディア企業はサイト上で憎悪的なコンテンツがどのように規制されるかを規定するルールを設定することができる。Facebookは、プラットフォーム上でのヘイトスピーチを具体的に禁止しており、自動検出とコミュニティのフラグを組み合わせてヘイトスピーチを特定し、サイトから削除している。同社独自の透明性報告書によると、Facebookは2019年第1四半期にヘイトスピーチを含む400万件のコンテンツに対して「措置を講じた」と報告している。

Facebookは2018年5月以降、許容される言論の基準をどのように実施しているかについて四半期ごとに報告書を発表している。最新の報告によると、同社は2020年第1四半期にヘイトスピーチとみなされるコンテンツを960万個削除しており、2019年の第4四半期の570万個から増加している。この合計は記録的なもので、2019年第3四半期に削除された700万件を上回った。

第1四半期に削除された960万件の投稿のうち、Facebookは、ユーザーが報告する前に88.8%の投稿をソフトウェアが検出したと発表した。それは、アルゴリズムが第1四半期にヘイトスピーチのために850万件の投稿にフラグを立てたことを示しており、前四半期の460万件の合計から86%増加している。

3ヵ月で960万件の削除が十分な数なのかは、Facebookの規模を勘案すると、多くの人は自身が持てないだろう。シアトル大学准教授のケイトリン・カールソンは2020年1月に、彼女と同僚がプラットフォームのヘイトスピーチルールに違反していると思われる300以上のFacebookの投稿を収集し、サービスのツールを使って報告した実験の結果を発表した。最終的に削除されたのは投稿の約半分だけだった。同社のモデレーターは、女性嫌悪(ミソジニー)よりも人種や民族的なスラーのケースを強制することに厳格だと言われる。

カールソンは、同社の2018年のポリシー更新によって大きな変化があったかどうかだったが、変更は、同社の意思決定にほとんど影響を与えていないように見えた、と指摘している。Facebookは、女性差別的なヘイトスピーチの削除や攻撃や脅迫の削除における一貫性の確立に問題を抱え、削除の決定において文脈を考慮することができないこと、ヘイトスピーチの削除プロセス内での透明性の一般的な欠如という状況にもさらされていた、とカールソンは主張した。

コンテンツモデレーション

コンテンツモデレーションは、投稿、画像、動画、あるいはハッシュタグを含むユーザーが生成したコンテンツをスクリーニングして、何がソーシャルメディアプラットフォーム、ウェブサイト、あるいは他のオンラインアウトレットに掲載されるか、あるいは残るかを決定するために使用される、共有された特性を持つ一連のプラクティス。このプロセスには、多くの場合、3つの異なるフェーズが含まれている。

第一に、編集部のレビューだ。これは、公開前の映画に与えられる評価のように、コンテンツが利用可能になる前に課される監視を指す。ソーシャルメディアの場合、エディトリアルレビューは、ソーシャルメディアプラットフォームが設定したコミュニティ基準を指すことが多い。

次に自動検出ですが、これは削除プロセスを支援するために洗練されたソフトウェアを利用している。プラットフォームはアルゴリズムおよび/または人工知能を使用して、アップロード前とアップロード後の両方でコミュニティ基準に違反するコンテンツを削除する。Facebookの2019年第1四半期の透明性報告書によると、同社はユーザーが報告する前に、サイト上のヘイトスピーチの65%を積極的に削除した。

この分野の最近の研究では、ソーシャルメディアのコンテンツからヘイトスピーチを除去するアルゴリズムのベストプラクティスが出てきていることが示唆されている。2017年の研究では、アルゴリズムがヘイトスピーチとユーモアを含む単なる攻撃的なスピーチを区別するのに役立つ細かいラベルが効果的であることがわかった。

ただし、検出器が補足できない投稿は依然として山のようにあり、その探知と削除は、正社員ではなく契約社員によって行われており、このようなゴーストワーカーと呼ばれる非正規労働者が一日中有害なコンテンツをスクリーンで眺め続けていることは物議を醸している。

参考文献

  1. M. Duggan. "Online harassment 2017,” Pew Research Center" July 11, 2017. accessed July 15, 2020.
  2. Caitlin Ring Carlson, Haley Rousselle. Report and repeat: Investigating Facebook's hate speech removal process. Received 20 September 2019; revised 4 December 2019; accepted 5 December 2019.

Photo: CEO Mark Zuckerberg at Facebook Communities Summit 2019 by Facebook media resources.