フェイクニュースはヒトの不注意や認知バイアスに容赦なく襲いかかる

サマリ

ソーシャルメディアは諸刃の剣である。ユーザーはネットワークが生み出す利得にあやかれる一方、悪意のプレイヤーがこの経路を活用し、多数の人々の考え方を操作しようとする危険性をはらんでいる。人間の認知や社会的行動、感情には脆弱性があり、ソーシャルボットのようなそこをつくための技法が開発されている。

フェイクニュースの現在地

ソーシャルメディアは諸刃の剣である。ユーザーはネットワークが生み出す利得にあやかれる一方、悪意のプレイヤーがこの経路を活用し、多数の人々の考え方を操作しようとする危険性をはらんでいる。フェイクニュースは誤情報、流言飛語から党派性により歪められたであり、ソーシャルメディアが生まれる前、おそらくヒトという種が生まれてからずっと存在していた。

実際、大規模なデジタル誤情報は、2013年の段階ですでに世界経済フォーラムの報告により、主要な技術的および地政学的リスクとして指定されている。かなりの数の研究が近年Facebook、Twitter、YouTube、Wikipediaなどのオンラインソーシャルネットワークにおける誤情報の現象を調査している。これらの調査は、なんらかのモデリングを行おうとするのと同時に、確証バイアスと社会的影響を扱っているほか、同じ政治的/思想的信念を共有するコミュニティにおける根拠のない主張でも正しい情報と等価になり伝播する「エコーチャンバー現象」も取り上げている。

最近の研究では、誤った情報の拡散におけるボットまたは自動アカウントの役割も明らかにされている。2016年の米国大統領選挙でのTwitterでのボットは、誤情報の”プロモーション”を担当し、返信や言及を通じて影響力のあるユーザーを標的にし、ネットワークのコアは事実確認された正しい記事を共有することがほとんどなくなることを発見したとする研究もある。これらの結果は、そのような誤情報キャンペーンが世論を変え、大統領選挙の完全性を危険にさらす可能性があるかという問題を提起している。

フェイクニュースは、2016年のアメリカ大統領選挙とイギリスの欧州連合離脱是非を問う国民投票で「国際社会」において有名になったが、新興国でもかなりのその氾濫が認められるし、ソーシャルメディアを通じた政治広告や情報工作等も広義のフェイクニュースと捉えることができる。エジプトとチュニジアでのTwitterとFacebookの活動は、ソーシャルメディアが「アラブの春」を加速させる役割を果たした可能性が高い。アラブの春では、市民たちの自由を求める声がソーシャルメディアに反響し、人々が独裁政権を打倒したとされる美談となっている。このとき多くの楽観主義者はモバイルインターネットの薔薇色の未来を予見した。だが、アラブの春の裏側にはフェイクニュースの流通や”専門性のある第三者”による情報工作が相当量存在したかもしれない。

デジタル誤情報の大規模な拡散は、西欧型の民主主義に対する主要な脅威である。コミュニケーション、認知、社会、およびコンピューターの科学者は、誤った情報のウイルス拡散の複雑な原因を研究し、オンラインプラットフォームは対策を展開し始めている。しかし、これらの取り組みの指針となる、体系的な証拠は民間企業であるプラットフォームによってほとんど公開されていない。

社会科学者とコンピューター科学者は、オンラインにおける誤情報による行動操作に関する様々な要素の複雑な組み合わせを明らかにする努力に取り組んでいる。これには、情報の過負荷と注意が有限であること、虚偽ニュースの「斬新さ」、分離されたオンラインソーシャルネットワークに起因する選択的露出(自分の態度に適合する情報を選択的に探索する傾向)、社会的影響、記事推薦アルゴリズムのバイアス、あるいは確証バイアスや動機づけられた推論などその他の認知脆弱性が含まれる。

フェイクニュースの定義とその意味合い

フェイクニュースを調べることは難しい。まず、選挙や動乱、災害時などにおいてのその流通は余りにもカオスな状況でありその全体像をつかむことは困難だ。また有意義なデータはSNS運営者やそのほかのインターネットサービス運営者の下にある(彼ら自体もうまく状況はつかめていないかもしれない)。それから、それがどう投票行動に結びついたのかを検証することはかなり難しい。人の心は移ろいやすくとても複雑である。

フェイクニュースがドナルド・トランプを当選をもたらしたという直接的証拠はないが、それでも、フェイクニュースが米国社会と民主主義が前提とすることに恐ろしい影響を与えたことは間違いがない。

そして、投票行動に影響を与えるために情動を狂わせるケンブリッジ・アナリティカの事件は大きな記念碑となった。以前から世界各国で行われてきた政治広告が、ソーシャルメディアという増幅装置を得て、効果的に選挙結果に介入しようとしていたことが明らかにされた。ほかにも、東欧の小国マケドニアの若者が大量の偽ニュースサイトをつくり、主にヒラリー・クリントンを誹謗中傷する虚偽の内容の情報をばらまきお金を稼いでいた。ロシア側のある情報工作組織(トロールファームが政治的分断を煽る情報工作をソーシャルメディアで実行し、それがトランプ氏に利したといわれる疑惑もある。

フェイクニュースの問題を扱うことにはこのような意味合いが存在するはずだ。

  • 民主主義を著しく歪めた可能性がある
  • 情報伝播テクノロジーに致命的な脆弱性があることが露見した
  • 第三者が群衆を操作するための群衆の脆弱性が認められた

2016年の米国大統領選挙中のフェイクニュースへのURLリンクを載せたツイートに関するAlexandre Bovetらの研究によると、ツイートの25%が偽ニュースまたは非常に偏ったニュースを広めたことが明らかになっている。 調査は選挙日の5か月前の1億7100万件のツイートのデータセットを使用して、220万人のユーザーからのニュース配信へのリンクを含む3000万件のツイートを特定し、「www.opensources」がキュレーションしたニュースの分類に基づく。全体の25%を占める”フェイクニュース”は主に図の左側の右派ニュースとリンクするノード群を形成している。

Fig01 各メディアカテゴリの上位30人のインフルエンサーによって形成されたリツイートネットワーク。 リンクの方向は、ユーザー間の情報の流れを表す。 ノードの大きさは、完全な結合されたネットワークでの出次数(頂点から出て行くリンクの数)に比例する。Via Alexandre Bovet, Hernán A. Makse"Influence of fake news in Twitter during the 2016US presidential election", Nature (Creative Commons Attribution 4.0 International License)

ノースイースタン大学ネットワークサイエンス研究所のGrinbergらはTwitterアカウントと特定の有権者を照合してTwitter上のデータを分析し、誰が偽ニュースにさらされたか、偽ニュースを広めた人、偽ニュースが実際のニュースとどのように相互作用したかを判断した。 偽ニュースはすべてのニュース消費の6%近くを占めたが、かなり集中していた。偽ニュースの80%にさらされたユーザーは1%のみで、偽ニュースの80%を共有したユーザーは0.1%だった。 興味深いことに、偽ニュースは保守的な有権者に集中しており、 高齢者、極右は偽ニュースを共有しやすい傾向があるという。

うそは事実よりも伝播が速い

ソーシャルメディアによるフェイクニュースの恐ろしさはその伝播する力である。誤情報の方が正しい情報よりも拡散する速度が高いとする報告書がある。ダートマスのコンピューターサイエンスの助教(2019年9月現在)を務めるSoroush Vosoughiらは2006年から2017年にかけてTwitterで配信された真実と偽ニュース記事すべての差分拡散を調査した。データは、最大300万人が450万回以上ツイートした最大12万6,000の記事で構成される。6つの独立した事実確認組織からの情報を使用して、ニュースを真または偽として分類した。

Vosoughiらはこう主張する。

オンラインでのフェイクニュースの量は明らかに増加しているが、現在、フェイクニュースが広がる方法と理由の科学的理解は、大規模な体系的分析ではなくアドホック分析に基づいている。Twitterで広まった検証が済んでいるすべての真実と偽のうわさを分析した結果、虚偽のニュースはオンラインの真実よりも広まっていることが確認された。また、これは誤ったニュースがどのように広がるかについての従来の知恵を覆すものだ。

うそはすべてのカテゴリの情報において、真実よりもはるかに遠く、速く、深く、広範に拡散し、テロ、自然災害、科学、都市伝説、または金融情報に関する虚偽のニュースよりも、政治に関する虚偽のニュースの方が効果が著しかったという。これは、人々が「斬新」な情報を共有する可能性が高いことを示唆していおり、うその物語は、恐れ、嫌悪感、そして驚きの返信を促したが、真実の物語は、期待、悲しみ、喜び、信頼を呼び起こしたと論文は説明する。

ソーシャルネットワーク上では単なる友人間の情報伝達にとどまらず,それが連鎖することによる大規模な情報カスケード(滝)が観測される。そのカスケードからは 1.深さ、2.サイズ、3.最大幅、4.速さを計測することができる。

  1. 深さ:事実が連続でリツイートされる回数は10回にすぎないが、誤情報はより多くリツィートされ、19回も連続でリツイートされるケースもあった。
  2. サイズ:事実は1000人以上にツイートされるのは稀だったのに、誤情報はもっと多くの人にツイートされた。
  3. 最大幅:事実は1000人以上にツイートが分岐することが稀だったが、誤情報の中には数万人規模のものがあった。
  4. 速さ:最初の投稿がリツイートされるまでの速さは誤情報のほうが20倍速く、1500人に届くまでにかかる時間も事実より6倍も速かった。

ただ、この論文は偽情報の流布に関するボットの貢献を認めない。「ボットは真実と偽ニュースの拡散を同じ程度加速させる。しかし、情報やニュースへのアクセスの多くはこれらの新しいテクノロジーによって導かれているが、オンラインでのフェイクの広がりに対するボットの貢献について我々は認めなかった」と説明している。

彼らはネットワーク構造とボットの特性がフェイクニュースの拡散に寄与しているのではなく、主たる拡散者である人間の特性がそれに強く関わっていると主張している。それは人間の「脆弱性」である。

人間の脆弱性

人間の脆弱性のひとつが認知バイアスである。

  • 認知の過負荷。現代の人間は認知能力を超えた情報量にさらされている。過負荷によりさまざまな認知バイアスを催すことがある。
  • 確証バイアス。無意識のうちに自分の考えを肯定するような情報にばかり目を留め、逆に、否定するような情報は無視したり軽視したりする傾向。
  • バックファイア効果。自分が信じるものを否定する情報を突き付けられると、その考えを中立的に修正するのではなく、さらに自分の考えを強化する効果
  • 認知的不協和。人が自分の中で矛盾する「新しい事実」を突きつけられた時に感じる不快感のこと。人はこの不快感を抑えるために事実を歪める行動をとるときがある。
  • 利用可能性ヒューリスティック。「取り出しやすい」記憶情報を、優先的に頼って判断してしまうこと。記憶に残っているものほど、頻度や確立を高く見積もる傾向。何度も何度もフェイクニュースを浴びているとそれが事実のように錯覚する可能性がある。

もうひとつは、他者に関わる社会的なものである。

  • 社会的影響。人の態度、認知、行動が、他者の存在や他者(または組織)からの働きかけによって変化すること。
  • ピアプレッシャー(同調圧力)。少数派が暗黙のうちに多数派の意見に同調すること。
  • 情動感染。他者が表現した喜怒哀楽の感情を感受し、その感情に引っ張られること。
  • 類似性(homophily)。似たもの同士が結び付こうとする「類は友を呼ぶ」傾向を指す。

ソーシャルボットの効果

このような人間の脆弱性を突いて偽情報を拡散させるための手段として、ソーシャルボットがあると言われる。Chengcheng Shaoらの2018年の論文は信頼性の低いソースの情報流通はソーシャルボットによって力強く支援されていると主張している。彼らは2016年と2017年の10か月間にTwitterで40万件の記事を広めた1,400万件のメッセージを分析した。Shaoらは、ボットが記事がバイラルする前に、嘘のコンテンツの初期拡散を増幅し、また、返信やメンションを通じて多くのフォロワーを持つユーザーをターゲットにすることで拡散を成功させていると指摘する。

人間はこの操作に対して脆弱であり、ボットによって投稿されたコンテンツを再共有する傾向があると指摘する。多くのフォロワーを持つネットワーク内のハブを説得することが拡散を深く大きくそして広くするためにはとても重要になる。

オンライン情報エコシステムの悪用は、これらの脆弱性を悪用し、強化する可能性がある。フェイクニュースは新しい現象ではないが、ソーシャルメディアを簡単に操作できるため、新たな課題が発生し、特に偽情報を流布するための肥沃な土地が生まれる。これらの偽のアカウントは、コンテンツを投稿し、実際の人々と同じように、ソーシャル接続を介して相互に、また正当なユーザーと対話できる。ボットは、投じる誤情報を調整し、それを信じる可能性が最も高い人々を標的にし、その人たちの人気があると思われるものを探し、社会的接触を信頼する傾向を利用する。

Fig 02 コンテンツのオンラインバイラリティ。低信頼性(青い丸)と事実確認(オレンジ色の四角)の両方のソースからの記事のツイート数の確率分布(密度関数)。記事を共有するアカウントの数の分布は非常に似ています via Shao, C. et al. The spread of low-credibility content by social bots. Nat. Commun. 9, 4787 (2018), (Creative Commons Attribution 4.0 International License)

ボットは記事がTwitterで最初に公開された後の最初の数秒で、反応を示すように設計されている。この初期の介入により、多くのユーザーが信頼性の低い記事にさらされ、記事が「バイラル」になるよりもチャンスが増えると推測される。

ボットがよく使用するもうひとつの戦略は、信頼性の低いコンテンツにリンクするツイートで影響力のあるユーザーに言及するだ。ボットはこの「ターゲティング戦略」を繰り返し行うようだ。 ボットである確率が高いアカウントは、フォロワーの数が多いユーザーにメンションする傾向がある。この戦略の考えられる説明は、ボット(またはそのオペレーター)が、信頼性の低いソースからのコンテンツで影響力のあるユーザーをターゲットにし、共有を促しているということだ。これらのターゲットがフォロワーとコンテンツを再共有することで、うそのコンテンツの信頼性が高まることを期待しているという。

この調査はソーシャルボットの抑制がオンラインの誤情報の拡散を減らす効果的な戦略であることを示唆しているという。今回の解析では、ボットである可能性がとても高いアカウントのごく一部(全体の約10%)とのリンクを切り離すことで、今回の研究期間中に信頼性の低いコンテンツの拡散をほぼ解消できたことも明らかになった。

さて長い文章になった。続きは次の記事に書きたい。

参考文献

Alexandre Bovet, Hernán A. Makse"Influence of fake news in Twitter during the 2016 US presidential election"(2019), Nature

Nir Grinberg et al. "Fake news on Twitter during the 2016 U.S. presidential election"

Soroush Vosoughi, Deb Roy, Sinan Aral2, "The spread of true and false news online"(2016)

Shao, C. et al. The spread of low-credibility content by social bots. Nat. Commun. 9, 4787 (2018).

Bessi, A. & Ferrara, E. Social bots distort the 2016 U.S. Presidential election online discussion. First Monday 21, https://doi.org/10.5210/fm.v21i11.7090 (2016).

Ferrara, E., Varol, O., Davis, C., Menczer, F. & Flammini, A. The rise of social bots. Commun. ACM 59, 96–104 (2016).

”Twitter released 9 million tweets from one Russian troll farm. Here’s what we learned.” , Vox.com

Photo by Linnea Herner on Unsplash