香港の抗議活動をめぐり中国当局が香港でFacebook、Twitter、YouTubeにおいて情報工作を行ったことが明らかになった。Twitterは中華人民共和国(PRC)から発信された936個のアカウントが、地上での抗議運動の正当性と政治的地位を損なうことを含め、香港で政治的不和を煽る動きをしていると発表にしている。Facebookも中国から発信され、香港に焦点を当てた情報工作を行う小規模ネットワークの一部として、調整された不正行為に関与する7つのページ、3つのグループ、および5つのFacebookアカウントを削除したと発表した。GoogleがYouTube上で同じように香港デモに関する情報操作を検出し、210個のYouTubeアカウントを無効にしたことを報告した。

香港の抗議活動を誹謗中傷するTwitter投稿の一例 via Twitter News Room

このようなソーシャルメディア、動画メディアの相手国の国民を攪乱するための利用は近年、世界各国で認められる。選挙や動乱、災害時の人の混乱につけ込んで特定の政治利益を達成する目的を秘めていると考えられる。現代社会はしばしば右と左のように完全に反対の視点を持つグループに分かれる傾向がある。この現象は、ソーシャルメディアに反映され、多くの場合、増幅される。ソーシャルネットワークでは、人間だけがプレイヤーではなく、ソーシャルボットが共存しており、ボットは人間に影響を与えるための戦略を実行するのだ。

ボット(ソフトウェアロボット)は、コンピューターの歴史の初期から存在していた。1950年代にアランチューリングは人間と会話するチャットボットを夢想した。チューリングテストに合格するコンピューターアルゴリズムを設計するという夢は数十年にわたって人工知能の研究を推進してきた。今日、数億人が住むソーシャルメディアエコシステムは、経済的および政治的なものを含む、ボットを生み出すためのインセンティブを提供している。

このインセンティブが悪意を持つ人々を刺激したことが最近明らかになってきている。そしてそれが深刻な影響を社会に与えていたらしきことも、だ。

ロシアによる米大統領選挙への広範な工作を主張するムラー特別検察官の報告書

現在も米国の政界を揺さぶっているロバート・ムラー特別検察官の報告書は、Internet Research Agency(IRA)のアーカイブから、2016年の米大統領選に絡んで、メッセージの投稿と増幅に大きい成功を収めた大規模なプロパガンダ活動を行っていたことを説明する。IRAはロシアのサンクトペテルブルクに拠点を置く企業で、クレムリンと密接名関係がある「トロール農場」(組織化されたオンラインの扇動グループ)である。

トロールとは「荒らし」の意味で使われてきたが、ソーシャルの兵器利用の文脈では、より巧妙な工作を行う主体を指す言葉である。それは、政治的なイデオロギーの宣伝を目的とせず、代わりに、銃規制や移民などの過熱した話題に関するアメリカ人の感情を扇動し、アメリカ人を二極化していくことを目的していたと報告書は説明する。

報告書によると、IRAとその協力者は、西部、南部、中西部、ニューヨークなどに移動した。 その結果、アメリカの政治組織の追跡と研究が行われ、その後、2016年の選挙サイクル中に特定のグループの高度なターゲティングへと成熟した。 たとえば、黒人有権者は、ヒラリー・クリントンに投票しない、または第三者候補者に投票することを勧められた。 反イスラム教徒グループは、集会などを開催するよう奨励された。

ロシアの工作員は、米国内にサーバースペースを購入し、これにより、彼らはサンクトペテルブルクの本社から、仮想プライベートネットワーク(VPA)を使用してサーバーに接続し、米国内にいるようにふるまいながらFacebookやTwitterに投稿することができた。

さらに報告書は、ロシアの情報工作は、多くのトランプのキャンペーンの従業員と一致し、彼らが組織した抗議への参加について、一部のアメリカ人にお金さえ支払った、と指摘している。起訴状によれば、アメリカ人の誰もがロシアの工作員と協同していることすら知らなかったが、それにもかかわらず、彼らはロシア人の試みにいくつかの重要な支援を提供した。

ムラー検察官はそれまでにロシア人やロシア法人3社を含む計37人を正式起訴し、そのうち7人が容疑を認めた。ロシア人やロシア法人は共謀やハッキングなどに関する罪状で起訴されたが、ロシアの選挙介入に直接関与したという容疑での起訴ではなく、大統領の弾劾などは検討せず、判断は議会に仰ぐという態度をとっている。

従者が主人を持ち上げる構図、シマンテックの調査

Twitterが公開したIRAに関するデータセットをめぐるシマンテックによる調査によると、プロパガンダ活動は周到に計画され、アカウントの大半は始動の何カ月も前に登録されていた。2016年米国大統領選よりだいぶ以前からで、アカウントの作成日から最初のツイートまでの平均日数は177日だった。

アカウントは大きく 2 つのグループに分類できることがわかり、シマンテックはそれぞれをメインアカウント、サポートアカウントと呼んでいる。グループによって性質が異なり、役割も違うという。メインアカウントが自動投稿するブログ記事のリンクをサポートがリツイートすることで拡散を促進する。メインアカウントは何らかの公的な権威、集団を装っている。リンクのほとんどは短縮 URL で、最終的なリンク先を隠蔽する技法を用いているとブログは説明する。

今回のプロパガンダ活動は、トロール(荒らしユーザー)の行為とたびたび言われてきましたが、データセットが公開された結果、実態はそれ以上だったことが明らかになりました。何カ月も前から計画され、首謀者は広大な情報ネットワークを構築して運用できるリソースもふんだんに持ち合わせていました。
きわめてプロフェッショナル色の強い活動だったということです。数年にわたって投稿されたツイート数の膨大さもさることながら、新しいコンテンツのツイートと、それを増幅するサポートアカウントの強力なネットワークを自動化する活動が、実に合理的に展開されていたことになります。

対策)メディアリテラシーの強化と検出精度を高めること

工作者はFacebookやTwitterに存在する対立を見つけ増幅する。これは基本的なソーシャルマーケティングを成功させる方法で使用される手法である。とても安いコストで多量の情報を生み出すことができる。

これらのメカニズムとユーザーの傾向を理解している悪意の攻撃者は、その知識を用いて、人々の考えを揺さぶったり、選挙に向けて混乱を引き起こすなど、さまざまな方法で情報を武器化している。偽のアカウントとソーシャルボットの間では、偽情報が信じられないほどの速度で広がるとされている。このソーシャルボットによる地上での「ゲリラ戦」のほかに、ターゲティング広告による空中戦を仕掛けたのがケンブリッジ・アナリティカ事件で起きたことである。それについてはここに詳しく書いた。

この記事で指摘したように、人のこころや行動は脆弱性を持っており、ユーザーの二極化と確証バイアスは、ソーシャルメディアでの誤情報の流通において重要な役割を果たすようだ。またモバイルインターネット製品には人を中毒にするためのテクニックが盛り込まれており、それは人を操るための絶好の状況をもたらしてもいる。

認知バイアスや社会的行動の癖を突く攻撃の威力を緩和するには、個々人のデジタルメディアリテラシーを高めることが必要になる。 社会における一定数の脆弱なグループの存在は、そこから群衆扇動を開始し、それをソーシャルメディア内で増幅し、より広範にわたる混乱をつくるという戦略を許容してしまう。

機械学習によるフェイクニュースの検知はそれだけでは完璧にならないだろう。まず、何が倫理的に正しく、何が「群衆操作」にあたるのか、の線は常に流動的なままであり、人によって異なる裁定が存在する。フェイクニュースを検知する機械学習モデルを作成する際には「ヒューマン・イン・ザ・ループ」が必要になると考えられる。ヒューマン・イン・ザ・ループとは、AIが仕事を行うときにそれを支援するために人が関与することを指す。 たとえば、トレーニングデータを作成したり、AIが行った決定を手動で検証したりすることだ。これによりモデルが人間のことを織り込んだものになる。

参考文献

"How China Unleashed Twitter Trolls to Discredit Hong Kong’s Protesters", The New York Times

Emilio Ferrara et al. "The rise of social bots"(2016)

P・W・シンガー、エマーソン・T・ブルッキング『「いいね!」戦争 兵器化するソーシャルメディア』(NHK出版)

Jen Weedon, William Nuland and Alex Stamos, "Information Operations and Facebook"(2017), Facebook

Photo by anna breaux on Unsplash