![米選挙におけるフェイスブックの偽ニュース、保守派により多く届くとの調査結果[ブルームバーグ]](/content/images/size/w2640/2023/08/400548365.jpg)
米選挙におけるフェイスブックの偽ニュース、保守派により多く届くとの調査結果[ブルームバーグ]
フェイスブックが民主主義に与える影響を理解するための大規模な研究プロジェクトの結果の公表が始まった。フェイスブックの親会社であるメタ・プラットフォームズは、ニューヨーク大学(NYU)、テキサス大学オースティン校(UT Austin)、その他10の学術機関の17人の独立研究者に内部データを提供した。
(ブルームバーグ) -- フェイスブックが民主主義に与える影響を理解するための大規模な研究プロジェクトの結果の公表が始まった。
フェイスブックの親会社であるメタ・プラットフォームズは、ニューヨーク大学(NYU)、テキサス大学オースティン校(UT Austin)、その他10の学術機関の17人の独立研究者に内部データを提供した。
フェイスブックに関するこれまでの学術的研究は、同プラットフォーム上でさまざまなスクレイピング手法を使ってグループが独自に収集したデータに頼る傾向があった。この取り組みがユニークなのは、プロジェクトの規模が非常に大きいことと、データがメタ自身から提供されたものであり、より質の高いものであることだ、と研究者たちは述べている。UT AustinのCenter for Media EngagementのTalia Jomini Stroudと、NYUのCenter for Social Media and PoliticsのJoshua Tuckerによる共同声明によると、「社会科学者は、ソーシャルメディアが米国の民主主義に与える影響についての研究で制約を課されてきた」。
このパートナーシップは、フェイスブックが2018年に開始したイニシアティブに基づくもので、同社は膨大な量の投稿、リンク、その他のデータを外部の研究者と共有し、サイト上の偽情報を調査してフラグを立てることができるようにすることを約束した。このプロジェクトに参加した研究者たちはフェイスブックから報酬を得ておらず、フェイスブックは研究者たちが行った質問や導き出した結論には一切関与しないと約束したと、同社は述べている。
「これらの論文で発表された研究は、ソーシャルメディアと民主主義に関するすべての議論に決着をつけるものではありませんが、これらの問題に対する社会の理解が進むことを期待しています」と、メタのグローバル・アフェアーズ担当プレジデントであるニック・クレッグはブログ投稿で述べた。
木曜日には、査読を受けた4つの研究の初期セットが学術誌『サイエンス』と学術誌『ネイチャー』の両方に掲載された。フェイスブック上の政治的偏向を観察した研究以外にも、研究者たちは、同意したユーザーのフェイスブックとインスタグラムのフィードを変更し、米国の成人に関するプラットフォーム全体のデータを調査した3つの実験結果を発表した。その変更とは、フィードをアルゴリズムによるものから時系列的なものに変更すること、同じ考えを持つユーザーからの政治的コンテンツを減らすこと、再共有されるコンテンツを抑制することなどである。研究コンソーシアムによると、この研究プロジェクトによるさらなる研究(合計16件)は、今後数ヶ月のうちに発表される予定だという。
フェイスブック上のイデオロギー分離を調べた研究では、研究者たちは2020年9月から2021年2月にかけて、2億800万人の米国のフェイスブックユーザーのデータを集計し、匿名化して分析した。研究者らは、フェイスブック上で共有された政治ニュースのユニークドメインとユニークURLの両方を収集し、フェイスブック上でのニュース共有のピーク時(11月3日の選挙直前と、親トランプ支持者グループが連邦議会議事堂で暴徒化した1月6日の暴動直後)に、1日に9万以上のリンクを調査した。
ユーザーの政治的傾向に関するフェイスブックのアルゴリズム分類によると、フェイスブックに少なくとも100回投稿され、メタの第三者ファクトチェッカーによって虚偽と評価された政治ニュースのURLの97%は、リベラル派よりも保守派によって閲覧され、利用されていた。虚偽と評価されたリンクの割合は、プラットフォーム全体で観察されたニュースリンクと比較して非常に低かった。
ペンシルベニア大学アネンバーグ・スクール・オブ・コミュニケーションの教授で、研究の主執筆者であるサンドラ・ゴンザレス=バイロン氏は、2020年の選挙期間中、フェイスブック上では、メタの第三者ファクトチェッカーによって誤情報とされたニュース記事の視聴者は保守派に傾いていたことを示唆している、と述べた。
研究者たちは、観察された行動から因果関係のある結論を引き出さないように注意した。ノースイースタン大学の政治学およびコンピューターサイエンスの教授で、この研究の共著者の一人であるデビッド・レイザーは、この結果を説明できる要因は他にもあるとインタビューで語った。例えば、フェイスブックがどのようなメカニズムでサイト上の誤情報の可能性にフラグを立てているかは不明であり、そのメカニズムが保守的な視聴者にアピールするニュースに組織的にフラグを立てている可能性もある。別の研究では、フェイスブックのファクトチェックプロセスを詳しく調べ、サードパーティのファクトチェッカーがなぜ右派の政治ニュースをより多く虚偽と評価するのかを調べることもできる、とレイザーは言う。「そのパイプラインを厳密に評価したわけではありません」
しかし、研究者たちが発見したのは、フェイスブックでは全体的に、視聴者は政治的に非常に分離されているということだった。個々のリンク単位で見ると、ストーリーは主に保守派かリベラル派によって閲覧され、関与された。「これまでの多くの学術文献は、インターネットによる消費はそれほど政治的に分離していないと示唆していた」とレイザーは言う。「この新しい研究は、その逆を指摘している。ある意味、私たちはすでにそれを知っていると思っていました。しかし、そうではなかった」。
この研究では、政治ニュースのリンクは、リベラル派よりも保守派がほとんど独占的に見ていることがわかった。また、リンクがフェイスブックのページやグループに投稿された場合、閲覧者の政治的分離は、リンクが個々のユーザーによって投稿された場合よりもさらに明白であった。「ページやグループといったフェイスブックの機能によって、従来は無料で行うことが難しかったような同質のコンテンツを流すことができるようになった」とレイザーは言う。
木曜日に発表された他の3つの研究は、2020年のアメリカ選挙のクライマックスである9月から12月までの3ヶ月間に、同意したフェイスブックとインスタグラムのユーザーのアルゴリズムを変更することに基づいている。1つでは、研究者は人々のフィードをアルゴリズムから時系列に変更し、人々が見る投稿の順番を、彼らの好みに基づくのではなく、時間順にした。別の研究では、イデオロギーを同じくするユーザーからの政治的コンテンツを減らした。そして3つ目は、フェイスブックで再共有されたコンテンツを人々のフィードから削除した。
実験的研究によれば、全体として、アルゴリズムの働き方を変えても政治的態度を変えることはできないようだ。研究者たちは、ユーザーの政治的態度への影響が比較的低いことを説明する可能性のある研究の限界について、研究期間や選挙サイクルに近い時期などを挙げている。プリンストン大学公共・国際問題大学院の助教授であり、2つの研究の主執筆者であるアンドリュー・ゲスは、「これらの研究に参加したユーザーのサンプルは、平均よりもさらに政治的知識があり、政治的関心も高かった」と述べた。「そして、それは潜在的に、これらの人々が、より結晶化した態度を持つことを示唆している」。
それでも、全般的に、アルゴリズムによるフィードや再共有機能の変更は、ユーザーの政治的態度や行動を変化させないことがわかった。
Facebookデータを研究している学術グループのリーダーであるストラウドとタッカーは、「我々は今、アルゴリズムが人々のプラットフォーム上での経験を形成する上でどれほど影響力があるかを知っています」と言う。「私たちが知らないのは、その理由です」。
Facebook False News in US Election Reached More Conservatives, Study Says
By Davey Alba and Aisha Counts
© 2023 Bloomberg L.P.
翻訳:吉田拓史、株式会社アクシオンテクノロジーズ