【文字起こし】噴出するSNSの問題とその処方箋|平和博|メディアの未来#5
Photo by Fernando Lavin on Unsplash

【文字起こし】噴出するSNSの問題とその処方箋|平和博|メディアの未来#5

吉田拓史

吉田:昨今は、SNSでの情報伝播(でんぱ)についてはかなり批判的な意見も増えてきたというような状況だと思います。私が元々DIGIDAYという会社で編集者をやっていた時に平さんのブログをよく読んでいましたが、平さんが伝えるような内容が長期的に多分変化してきたのではないかというのは、ブログやフォーマーを見ていたりして思うのですが、ここら辺はどうのようにお考えでしょうか。

平:一つは規模の問題です。ソーシャルメディアの広がり方、社会におけるソーシャルメディアの位置付け、存在感がだいぶ変わってきたという印象はあります。具体的には今、世界人口がこの間80億人という数字が出ていましたが、Facebookの月間アクティブユーザー数だけでおよそ30億人です。4割近い人たちが世界でFacebookというソーシャルメディアで最大のサービスを使っています。そして、YouTubeでもやはり20億を超えています。国境を越えたリアルタイムのグローバルインフラになってきているというのが、まずソーシャルメディアの今の位置付けなのだろうと思います。

その中で、情報のクオリティーにかかわらず指数関数的に広がっていくというのが、現状の情報の生態系の一つの特徴であろうと思っています。つまりノードとしての個人が発信する情報圏は、かつては例えば地域、家族、友人という物理的な制約に閉じられたものでしたが、今はそれが世界と直接、双方向、リアルタイムでつながっている。その違いは非常に大きいと思っています。

10年ぐらいのスパンで見ていくと、このようなソーシャルメディアが社会にインパクトをもたらすことが意識されたのは、2010年の末から2011年の初めにかけての中東・北アフリカの民主化運動「アラブの春」が一つのきっかけだったと思います。あの民主化運動はソーシャルメディア革命と言われ、情報の共有、拡散ではFacebook、Twitterが大きなツールになったと言われています。この時のFacebookの月間アクティブユーザー数は約6億人です。現在は約30億ですから、その5倍になっています。そして数は5倍ですけれども、ネットワークの価値はノード数の二乗だというメトカーフの法則でいくと、この10年ほどで25倍の価値になっています。

2月に起きたウクライナ侵攻では、ウクライナのゼレンスキー大統領が侵攻直後に自撮りの動画をソーシャルメディアで世界に発信して、それが欧米諸国による支援の後押しになったような側面もあります。そういう位置付けに今、ソーシャルメディアの情報はあるのではないかと考えています。

吉田:やはりノード数が増えて、投下される情報に関しては似たような指数関数的といいますか、つまりノード数が増えた以上のインパクトがおそらく起こっていると考えられるということです。いいことは、ゼレンスキーさんのようにそれをうまく使って世界中に瞬く間に広がるという側面がある一方で、フェイクであったり誤情報、偽情報とかが特に最近は増えているというような、多分二面性があるのかと思うのですが。

平:そうです、特にこの数年です。2020年からの新型コロナのパンデミックでは、まさにウイルスの拡散に合わせてフェイクニュースが拡散されて、それ自体がインフォデミックという呼ばれ方をしました。具体的に、例えばワクチン接種などの感染対策の妨げになるということで非常に懸念されてきて、現在もその懸念は続いているわけです。あるいは去年1月のアメリカの連邦議会議事堂乱入事件では5人の方が亡くなっていますが、これもその背景に、ソーシャルメディアでのフェイクニュース、陰謀論などの拡散も指摘されています。

そして先ほどのウクライナ侵攻では、ゼレンスキーさんのような情報発信が可能だった一方で、フェイクニュースが情報戦の武器となりました。戦場がユーザーのスマートフォンと直接つながって、間違った情報が拡散されてしまうという問題点も指摘されました。今までそのような形での情報戦を、人間は体験してきていない。情報環境のメリットを生かしながら社会の混乱をどう押さえていくのか、そのバランスが非常に問われている局面ではないかと思います。

吉田:2010年頃のアラブの春の段階では、一応、民主主義陣営にとって好ましいような変化が中東で起こっていて、多分当時はみんながモバイルを持つことや、そこからソーシャルでつながっていくということに対して非常に肯定的な見方をされていたと思います。しかし、それが2010年代の半ばくらいから少し怪しくなってきていて、おそらく2016年のアメリカの選挙やブレクジット周辺で、どうも怪しい情報がとてもたくさん氾濫したということが分かってきました。weaponization of social mediaのような感じになってきて、おそらく平さんもかなり突っ込まれていたと思います。日本語で言うとソーシャルメディアの武器化に関して、どういうふうに捉えていらっしゃいますか。

平:アラブの春の時にも、権力側といいますか政府側で民主化運動自体をかく乱させるような、逆にソーシャルメディアをそういった形で使っていくということは、既に指摘をされていたわけです。それがより具体的に見えてきたタイミングが、2014年のウクライナを舞台としたクリミア半島のロシアによる併合。この前後で武器としてのフェイクニュースが目に見えて使われるようになってきました。それが世界的な大きな関心を持つようになったのが、2016年のアメリカ大統領選。ロシアの介入が指摘をされた、フェイクニュースの拡散とサイバー攻撃という流れになってくるかと思います。ですから、2016年が一つメルクマールになるのだと思っています。

吉田:そこから大体6年くらいを経て今に至ると思いますが、少しまた新しい局面が来たと思っています。昨年Facebookの内部告発者の方が出てきて、コンテンツの推進、レコメンドを決めるようなアルゴリズムにおいて、フェイクだったり低品質コンテンツを押さえ込むのではなくて、そうしないアルゴリズムを会社の幹部たちが選んでいたというような内部告発がありました。さらにTwitterからも、今年の5月とか6月ぐらいだったと思いますが、ちょうどイーロン・マスクとの買収うんぬんかんぬんの段階でそういう暴露が出てきました。ソーシャルメディアは2000年代の中盤から後半くらいから始まって、おそらくこの十数年、情報流通の世界の王者だったと思いますが、少し何らかの違うニュアンスが加わったこの数年だったのではないでしょうか。平さんはどういうふうに捉えていらっしゃいますか。

平:やはり2016年のフェイクニュースの氾濫と、その主な舞台となったFacebook、Twitterに対する批判から、ソーシャルメディア、プラットフォーム上でのコンテンツに対する管理、コンテンツモデレーションのあり方が、この数年で非常に強く問われています。社会、ユーザーからの、安全安心に使える場であってほしいという要望が極めて強くなったのが、2016年以降、現在までの一つの流れではないかと思います。その端的な現れ方が、先月の16日に発効したEUのデジタルサービス法という新しい法律です。特に巨大プラットフォームに焦点を当てて、コンテンツ対策の透明性とアカウンタビリティーを求めている。違法有害なコンテンツに対して、プラットフォームとして対策に取り組んでいることを開示する必要があります。

日本でも総務省の有識者会議、プラットフォームサービスに関する研究会が今年8月に発表した取りまとめで、プラットフォームのコンテンツ対策の透明性、アカウンタビリティー確保のために法的な枠組み導入も検討していく必要があるのではないか、という提言がなされています。プラットフォームの自主的な取り組みだけに頼っていくフェーズから、一定程度そこに強制力を持った透明性、アカウンタビリティーを要求していくべきでないかという流れが、大きく動き出しているタイミングかと思います。

吉田:それこそ2016年のアメリカとイギリスの選挙では、選挙という民主主義の根幹が揺るがされて、ただ一方で多分プラットフォーム上で行われている情報のやりとりというのは、各国が持っている憲法で規定しているような表現の自由であったり、そういうリベラリズムをやっていく上で不可欠なものです。そのため、このあたりが非常にその政策立案者から見ると難しかったと思いますが、EUはそういう強い方向に向かっているということでしょうか。

平:直接的にプラットフォームに対して「コンテンツを取り締まりなさい」と言っているわけではなく、基本的には自主ガイドラインの下にそれぞれの判断で取り組みを進めていきます。しかし、どのような取り組みを行ったかということについての透明性、アカウンタビリティーについては、しっかりと開示をしてくださいという部分を法的な枠組みとして課しているのです。いわば情報をいじる部分については、まさに表現の自由がありますので、そこはプラットフォームの事業者としての判断で行ってください、と。その透明性、アカウンタビリティーについて法的な枠組みというものも整備をしておきますという、そういう二段構えの枠組みです。

日本のプラットフォームサービスに関する研究会の取りまとめの趣旨も、表現の自由は最大限に尊重した上で、しかし取り組みは透明性をもって行ってください、ということだろうと思います。

吉田:おそらく何らかの規制であったり、ガイドラインの策定みたいなものは必要であったと思われますが、通常いわゆるGAFAMとかGAFAというような表現をされる企業は上場しています。四半期ごとにウォール街の精査を受けるようなことがあって、おそらく規制当局からのプレッシャーがない限りは、ある程度悪い情報が散布してしまうような運営のほうが多分もうかりやすいのだと思います。ですから……

平:それはそうだろうと思います。ただし先ほどもお話ししたように、感染症対策とか民主主義社会を揺るがすような事態であるとか、あるいはウクライナ侵攻に見られるような安全保障上の問題であるとか、そういうレベルで社会に悪影響を与えかねない、あるいは悪影響が見て取れるような状況がここ数年続いてきました。もちろん民間企業なので利益を追求するのは当然ですが、企業の社会的責任という部分で、そのような要請とのバランスを取っていく必要というのは、共有されているのではないかと思います。

吉田:私もそうあるべきだと思っています。平さんが多分ブログでも書かれている、例えば偽情報キャンペーンの一つとして、ロシア発の偽装メディアみたいなものにも触れられていると思いますが、これらはどのような影響をわれわれの社会にもたらしていると思いますか。

平:これらは情報戦の一環です。情報戦におけるフェイクニュースは、社会の分断あるいは混乱を狙う。特に今回のような戦争における情報戦では、その当事国のプロパガンダ、ナラティブがどれだけ標的の国、社会に浸透するかがポイントになります。武器の一つということだろうと思います。ウクライナ侵攻を巡って、さまざまなフェイクニュースが拡散しました。例えばアメリカがウクライナ国内の研究所で生物兵器を作成していたというようなフェイクニュース。これは国連なども公式に否定をしているわけですが、根強く広がっているものの一つです。そのような形で欧米の社会の中に分断、混乱を持ち込む。あるいはウクライナを支援することについての疑念を持ち込む。そのような効果を狙っているのだろうと思います。

吉田:平時、戦争の時ではない時でも、特にそういう悪意のエンティティが多分注目するのが、それは先ほど話したとおり、一つは選挙だと思います。例えば欧州だとすると、フランスの選挙に絡んでそういう偽情報、誤情報のキャンペーンが行われた形跡が大きく、例えば一部の政党に対してはクレムリン経由からお金を貸しているということが出ていたりもします。戦争の時は非常に目的が明解で混乱させるということがありますが、そこに向けて多分じっくり仕込んでいくというようなものも、われわれがインターネットを巡っている間に触れているのではないかと思います。

平:そうです。先ほどの生物兵器の陰謀論は、2月24日のウクライナ侵攻以前から少しずつ拡散されている。米軍が生物兵器を開発しているのだという類似のナラティブは、それ以前から非常に長期間にわたって拡散、浸透を図ってきたという経緯もあります。そのようなフェイクニュース、プロパガンダの種を平時から少しずつまき、広げていくのは、一つの常道でもあります。

吉田:分かりました。では想定質問でお渡しした質問に戻ろうかと思います。これまでのSNSの混乱の中で、多分一番直近の混乱がイーロン・マスクがTwitterを買ったことだったと思いますが、平さんの目から見て、どのように状況は映っていますか。

平:幾つかの側面があるので、切り分けて考えたほうがいいのかなと思います。一つはビジネス的なポイントです。ただこれは、ビジネス的にどのようなメリットがあるのか、私にはよく分からないところもあります。

イーロン・マスクさんは世界一の富豪であることは間違いないわけですが、総額で440億ドルという買収金額、日本円で6兆円という買収金額というのは、それにしても非常に大きく、しかもTwitter社という企業自体は過去10年間で8年赤字という会社です。さらに今回の買収では、130億ドルの借り入れの負債分をTwitter社が抱えていて、利払いが年間12億ドルぐらいになるという報道も出ています。通常の考え方でみれば非常に厳しい状況の中で、シリアルアントレプレナーとして知られているイーロン・マスクさんがどういう手腕を発揮するのか。大幅なリストラが行われていますが、広告収入が90%という現在のモデルを本当にドラスティックに変えて、利益の出るような形にできるのか。これまで数々の実績があるマスクさんの手腕への注目というのは、一つの大きなポイントだろうと思っています。

ただしもう一つのポイントとしては、プラットフォームの社会的責任という部分です。先ほどお話ししたように、この間、ソーシャルメディアのようなプラットフォームを安心安全に使っていきたいという社会、ユーザーの要請、プラットフォーム自身の取り組み、それを担保する法整備が、特に2016年からの6年間、ずっと続いてきたわけです。それをいわば逆回転させるような言動、あるいは実際の取り組みが行われています。コンテンツ管理で後退をするということは、社会に不安を呼び起こさざるを得ないわけです。またフェイクニュース、ヘイト、誹謗(ひぼう)中傷が広がってしまうのかという不安感は、もちろんユーザーにはあるでしょう。同様の懸念は、自社ブランドの毀損(きそん)につながりかねないという広告主の不安にもつながる。大手広告主が相次いで広告掲載を見送っているという動きは、そのような不安感の表れだろうと思います。

先ほどの少し触れましたアメリカの連邦議会議事堂乱入事件を巡って停止されていたトランプ前大統領のアカウントを、Twitter上のユーザーアンケートを基に11月19日に復活させ、新型コロナ関連の投稿規制を取りやめるような動き。これらは広告主、ユーザーの不安を後押しこそすれ、解消することにはつながらないのだろう思います。

先ほどお話ししたデジタルサービス法が発効したばかりのEUの欧州委員会委員、ティエリー・ブルトンさんとマスクさんが11月末、オンラインでミーティングをしています。ここでブルトンさんは、デジタルサービス法では制裁金として最大でグローバルの売り上げの6%が課される規定があり、違反が続く場合にはサービスの一時停止という制裁条項もあるということを繰り返し強調したと報じられています。有能なシリアルアントレプレナー、そして世界一の富豪がTwitter社を買収したとしても、法の規律、あるいはユーザー、広告主、社会が求める安全安心というものに変化はないということです。そのギャップをマスクさんはどのように埋めていくのか。それが一つ大きなポイントだろうと思います。

もう一つはマスクさんが掲げている「表現の自由」の旗印です。「表現の自由の絶対主義者」とご自身について述べておられるわけですが、その背景には一つの経緯があります。2018年8月、マスクさんはテスラの上場をやめる、というツイートをする一方、その月の終わりぐらいには非上場を撤回する。株価を混乱させたということで、翌月、米証券取引委員会(SEC)が証券法違反でマスクさんを訴追しました。結果として制裁金4,000万ドルをテスラとマスクさん個人で負担をして、和解に至るわけです。ただこの時の和解条項で、株価を混乱させるようなツイートを以後しないように、マスクさんがツイートをする前に弁護士がチェックすることを義務化しています。ところがそれ以降もマスクさんは物議を醸すようなツイートをやめていません。そのたびにSECから説明を求められるということを繰り返し行ってきたわけです。

このSECとの和解条項そのものが自分の「表現の自由」を侵害しているということで、マスクさんは裁判所に和解条項の撤回を求めていますが、今年4月にそれも退けられています。そのような中でのTwitterの買収です。マスクさんが主張する「表現の自由」の背景として、そのようなSECとの確執も浮かんでくるのではないかと考えています。

吉田:非常に包括的に論じていただいてありがたいのですが、マスクさんはつまりTwitterは2016年の選挙から今までを経て、広告主だったり規制当局とかとの間で調整をして今の形があるというものを全部ぶっ壊してしまったということなので、おっしゃるとおり、ヘイトとかが氾濫するというのはあると思います。

おそらくもう一つ私が思うに、Twitterにかかっている力学としては、Twitterのようなソーシャルメディアが少し弱っているような側面もあるのかと思っていまして、競走という側面もあるかと思っています。TikTokみたいなものに多分若い人の志向が移っていて、TikTokとかの場合、ソーシャルグラフでしょうか、人とのつながりがあまり重要ではありません。ましてや、ユーザーが好きだというものを見てスクロールすると、アルゴリズムにおいてそういう動画に集中していくみたいな形になっています。TwitterとかFacebookのようなつながり方の仕組みから少しトレンドが変わりつつある中で、平さんが指摘したビジネス的な側面もあって、440億ドルととても大きい金だと思いますが、それがおそらくその後の株式市場の暴落があって、もしマスクさんが買収のタイミングをどんどん後ろにずらせていれば、多分半額とかもっと安く買えたかもしれません。そういうバリエーションが安くなっていて、なおかつ、さっきおっしゃったように借金もあります。それで競争があって生き残らなければいけないという中で、少し目を疑うような綱渡りになっているといいますか。

平:そうだと思います。非常に綱渡りではあろうかと思いますけれども、そこをシリアルアントレプレナーとして渡り切るのかどうか。その際にコンテンツ管理、プラットフォームとしての安全安心というものが犠牲になるのか。犠牲になった場合、現在のさまざまな、EUでいえば法的な枠組みあるいは社会の期待、こういうものとのあつれきはどうなっていくのか。広告主とのあつれきはビジネスに直結する部分ですから、このあたりのバランスの取り方がどうなっていくのか。今はその逆回転の振れ幅が大きくて、これまでコンテンツの管理をもう少しきちんとしてほしいと考えていた政府、ユーザー、広告主にとっては不安材料だろうと思います。

吉田:表現の自由、言論の自由は確かに国民といいますか市民に対して保障されるべき権利だと思いますが、ヘイトだったり陰謀論、偽情報のように他者の権利を阻害するレベルまでの自由の行使というのは、現状の市民社会においては認められていないというのが多分合意事項だったと私は勝手に<発言が重なり聞き取り不能>。

平:それは少なくともあまり大きな支持は得にくいだろうとは思います。

吉田:ただそちらの方向にマスクさんは少し向かっている傾向が特に最近強いのかと思います。

平:どこまで意図的にやっておられるのかは外から見ていると少し分からないですけれども。

吉田:そうです。多分、トライ・アンド・エラーを大変な回数繰り返して成功するタイプで、その過程があまり重要ではないのかもしれませんが、扱っているものがTwitterという世界中の人がつながって、それが政治とか社会に影響を与え得るものだというところが不安なのかと思います。=

平:どういう反応を社会が示すのかを瀬踏みしている感もあります。それで落とし所を見ていくという、そういうフェーズなのかと見えますが、分からないです。

吉田:分かりました。ここまでが多分SNSの会社が話の中心だったと思いますが、平さんが在籍されていた朝日新聞社のようなメディア企業から見た時に、誤情報、偽情報のような現代の情報環境に対して、どのような対抗策があるのかということをお聞きしてもいいでしょうか。

平:特にニュースメディアから見たフェイクニュースへのアプローチでいうと、一つはファクトチェックだろうと思います。ただし今のところ、海外に比べて日本の特にレガシーメディアはそれほどファクトチェックに力を入れているようには、残念ながらあまり見えないと思います。

朝日新聞社は比較的早く、2016年秋から国会の討論を対象にしてファクトチェックを行ってきました。毎日新聞さんも今現在、ファクトチェックのコーナーを設けて継続的に取り組んでおられます。けれどもメディア全般として、例えばアメリカや台湾、韓国などの状況と比べて、やはりファクトチェックの取り組みは低調かとは思います。間違った情報というものを事実に基づいて検証して、それについて正しい情報を広げていくという取り組みは、いずれにしてもフェイクニュース対策としては極めて重要なポイントです。これはニュースメディアにはもう少し積極的に取り組んでもらいたいとは思っています。

ただし、この10月から日本ファクトチェックセンターという組織が立ち上がって、私も運営委員として参加をしています。ここで継続的なファクトチェックの取り組みを日本においても根付かせていこうと、BuzzFeed Japanの創刊編集長で朝日新聞時代の私の同僚でもある古田大輔さんが、編集長として取り組んでいるところです。

ファクトチェックでいうと、今回のウクライナ侵攻開始当初から、国際組織「国際ファクトチェックネットワーク」が認証した世界70以上の団体が連携して、侵攻にまつわるさまざまな動画、画像、テキストのフェイクニュースをファクトチェックし、情報集約サイトにまとめて公開することを続けています。このような形でフェイクニュースに対して国際連携を行っていく動きがあります。理由の一つは、フェイクニュースが多言語で展開されているので、国際連携でさまざまな言語に対応できる取り組みが必要だからです。

しかし、この国際コミュニティーに日本から参加している団体は今のところゼロです。ですから、少なくともその第1号というか、その国際コミュニティーへの参加ということも日本ファクトチェックセンターを立ち上げた一つの大きな理由です。

吉田:日本がそこに参加しなくて、この国がその対応力が弱いというふうに見られた時に、多分ちょっとまずいことが起こり得るので、その日本ファクトチェックセンターの役割というのはかなり重要なのだろうと思います。

平:国際連携はとても重要なポイントになってきていると思います。ソーシャルメディア自体が、国境を関係なく情報が行き交うネットワークですので。特にフェイクニュースは、リアルなニュースに比べて拡散が6倍速いということが、かつてマサチューセッツ工科大学のTwitterの研究で明らかにされています。誤った情報の拡散を何とか抑えていくためにも、このような取り組みを継続的に行っていく必要があるだろうと思っています。

吉田:おそらくフェイクが出た時にそれが拡散してしまうというのは、多分、短期的に抑えることはできないかもしれないと思いますが、それが後々フェイクだというふうに示されることで、おそらくこれまでだまされていた人たちの脳がだんだん慣れてくるのだと思います。つまりうそなので、非常にセンセーションで自分の興味を引くような情報を見た時に、これはうそかもしれないというようなところが多分最終的なゴールになるかと思います。私が思うに、分かりませんが。

平:そうです。ユーザーがタイムラインを見ていて、「おや、おかしい」と思った時に確認ができる参照先としても、ファクトチェックの結果を集めておくサイトは非常に重要だと思います。一般のユーザーは、少しおかしいなと思っても、ではどこでどう調べたらいいのかは、すぐには分かりません。ここに行って、検証されているかどうか確認すればいいということが分かってくると、ユーザーも手軽に確認できるのではないかと思います。

吉田:最後の質問ですが、ちょうど今ホットな話題だと思いますが、コンテンツ生成をAIでやるというのがはやっていると思います。それでこれが非常にポジティブな要素がとてもたくさんあって、いろいろないいことが社会にもたらされると思いますが、ニュースを扱う人として見ると、怖いところが多分たくさんあると思います。そういうフェイクニュースをつくるトロールファームであったりその種の悪意の人たちが、おそらくAIで武装してさらに攻撃を深めるような未来があるかもしれないと思いますが、どのように対処すべきだと平さんはお思いでしょうか。

平:今年9月の台風15号の水害に絡んで、画像生成AIによるフェイク画像がTwitterで拡散した事例がありました。ただしAIを使った判別の難しいフェイク画像、フェイク動画の拡散という点で見れば、既にディープフェイクス、つまり動画の顔の部分だけを貼り替えて拡散をさせる、2017年の秋ごろから話題になっていたものがあります。これは当初はフェイクポルノとして拡散していきました。ポルノも女性に対する人権侵害として問題ですが、それが政治的に使われた場合、例えば紛争につながってしまうなどの危険性も指摘をされてきました。ただこの間、その検出技術も開発されてきました。AIに対してはやはりAIで、一定の特徴を検出して排除する取り組みが続いてきたわけです。

ウクライナ侵攻では、3月の半ばに偽のゼレンスキー大統領が降伏宣言をするという、ディープフェイクスを使ったフェイク動画が拡散されました。つまり実戦で使われる状況も出てきているわけです。ただし一つ参考になるのは、ウクライナ政府は、インテリジェンスつまり情報機関が収集した秘密情報を基に、実際に偽のゼレンスキー大統領の動画が出回る2週間前に、このような動画を見たら、それはディープフェイクスです、と注意を呼びかけるキャンペーンを展開していたんです。

フェイクニュースは、こういうものが広がります、と事前に一定程度知らされていると、いわば予防接種のような効果があります。これが言っていたフェイクニュースか、ということで、混乱を抑制する効果が確認をされています。これはプレバンキング、事前暴露と呼ばれています。そういう間違った情報に対する予防接種のような取り組みが、このウクライナ侵攻における偽ゼレンスキー動画に対しても行われたというのは、一つの良い取り組みというか、効果のあった事例かと思います。このような啓発活動は、一定の効果が見込まれると思います。

今は画像、イラストがメインですが、動画でも今後そのレベルのクオリティーの高いものが拡散してくる可能性もあります。やはりAIで生成したものについてはAIで一定程度の検出をするような、プラットフォームの取り組みも非常に重要になってくるだろうと思います。

もう一つは、これはAIの生成画像ではないですけれども、2016年の熊本地震の際に、地震によってライオンが逃げたというような画像を付けたツイートが行われました。これに対して、その発信をしたユーザーが偽計業務妨害の容疑で逮捕されました。最終的には不起訴になっていますが、そのような形で社会に混乱を及ぼす情報発信を行った場合には、法的責任も問われるということを、ユーザー側もいま一度認識をしておく必要があると思っています。

吉田:分かりました。その前半の部分は、人間の脳だけではAIが作ったフェイクを完全に検知することができないのでAIを使うべきだということですね。

平:そうです。(AIのフェイク画像は)まだ不自然さが残る部分はあるので、そのようなポイントを理解した上でチェックすることも不可能ではありません。AIで自動生成をした人の顔の画像の場合には、例えば眼鏡のつるの右と左、イヤリングの右と左が違うといった、簡単にチェックできるポイントもあります。しかし、それらはいずれ技術の進化とともにクオリティーが上がっていくと、あまり役に立たなくなってしまいます。そのため、技術進化のスピードには、やはり技術で対応をしていくのが第一です。その上で、ユーザー側のリテラシーも、併せて必要になってくるのではないかと思っています。

何か一つでフェイクニュース問題が解決するという“銀の弾”はおそらくなくて、プラットフォームの取り組み、法制度の取り組み、ユーザー側のリテラシー、そういうものが連携をする形で、バランスというものが見えてくるのだろうと思います。完全な情報のコントロールは不可能ですし、完全な情報のフリーフローも危うさが残ります。どこで折り合いを付け、あんばいというものを社会として見いだしていくか、ということだろうと思います。

吉田:分かりました。そこまで悲観するべき状況ではないという印象を受けたので、良かったと思います。

平:私は決して悲観はしていません。フェイクニュースも、社会に害を与えないようなものであれば、間違った情報でも人を傷つけたり社会を混乱させたりしなければ、別に一定程度流れていても、誰も困らないわけです。社会に影響を与えないのであれば、単に間違った情報というだけのことです。ですから、社会にどれだけ深刻な影響を与えるのかという、そのフェイクニュースの危険度のプライオリティを見極めていく必要があるのだろうと思います。そういう点では、感染症対策とかあるいは民主主義、選挙に直接悪影響を与えるとか、安全保障に深刻な影響を与える、このような点での誤情報、偽情報、フェイクニュース、あるいは誹謗中傷、ヘイト、こういうものにはしっかりと取り組んでいくという必要はあるだろうと思います。

吉田:分かりました。1点だけ、今、聞いていて思い付いてしまったので話します。文章生成のほうも本当に進歩が目覚ましいと思いますが、AIが人間にAIだと気付かれないことを試すようなテスト、チューリングテストといいますが、例えばTwitterの中身がAIだったとして、それがAIだと気付けないような状況がこのままどこかのタイミングできた時に、仮にそのAIが悪意とかあるいは何らかのバイアスを持っていた時に、われわれは勝てるのだろうかということを聞いていて思いました。怖いと思います。

平:確かにそうですけれども、その懸念は、例えば先ほどのディープフェイクスなどへの懸念と、ほぼ同じところにあるのかと思います。文章において、それが人間が書いたものか、あるいは自動生成されたものか、どのような特徴の違いがあるのかは素人なので分かりませんけれども、何らかの違いがあるとすれば、それもAIで検知することも、もう不可能ではないような気もしますが、どうでしょう。

例えば情報戦において、アカウントが名乗っている肩書、名前とは別の人物が、運営をしているケースはあるわけです。2016年のアメリカ大統領選への介入工作の中でも、荒し、トロールの専門業者がロシアからアメリカ人になりすましてFacebookなどを使って情報発信を行っていたと言われています。それを自動化したバージョンと考えれば、人力で情報工作を行うか、自動化して情報工作を行うかの違いです。おそらく自動化のほうが、規模がいくらでも拡大できるという点で、別途対策は考えていく必要はあるのでしょうけれども、人力での情報工作に一定程度の対処ができているのであれば、それを大きく上回るような、何かとてつもない被害というものがあり得るのでしょうか。ソーシャルメディア世論のようなものを、それによってなにがしか作り上げるという危険性は考えられなくもないでしょうけれども、素人考えでは、そこに何らかの特徴があれば、検出はできるように思います。

吉田:おっしゃるとおり、AIによる検知だったり、それに対して法的な罰則があり得るということが明示されるというのは、多分この十数年で大変な進歩だと思います。おそらくずっと野放しだったので、ですから平さんがおっしゃるようなことが実現されれば、よりこの世界が前に進んでいくのではないかと非常に前向きに捉えさせていただきました。