人間はAIが生成した顔を本物よりも信頼してしまう
Photo by Kelly Sikkema on Unsplash

人間はAIが生成した顔を本物よりも信頼してしまう

【サイエンティフィック・アメリカン】人間はAIが生成した顔を実物よりも信頼できると感じる。人々は高度に機械的に生成された顔の画像を実際の人間と区別するのに苦労する。

サイエンティフィック・アメリカン

【サイエンティフィック・アメリカン、著者:Emily Willingham】2021年、「トム・クルーズ」がコインを消したり、ロリポップを楽しんだりしているように見えるTikTokの動画が現れたとき、アカウント名だけが、これが本物ではないことを示す唯一の明白な手がかりになった。ソーシャルメディア上の「deeptomcruise」アカウントの作成者は、ディープフェイク技術を使って、有名俳優が手品をしたり、ソロでダンスをしたりする様子を機械で生成して見せていたのだ。

ディープフェイクの判断基準の一つは、「不気味の谷」効果だ。これは、合成された人物の目がうつろに見えることで生じる不安感だ。しかし、説得力のある画像が増えてきたことで、視聴者は不気味の谷を抜け出し、偽物が広める欺瞞の世界へと引き込まれている。

政治的な利益を得るための情報操作、脅迫のための偽ポルノの作成、新しい形の悪用や詐欺のための様々な複雑な操作など、この技術の悪意のある利用にも影響を与えている。そのため、偽物を発見するための対策を立てることは、セキュリティ担当者とサイバー犯罪者やサイバー戦争担当者との間の「軍拡競争」になっている。

米国科学アカデミー紀要(PNAS)に掲載された新しい研究は、この技術がどれほど進歩したかを示すものだ。その結果、人間は機械で作られた顔に簡単に騙され、さらには本物よりも信頼できると解釈してしまうことがわかった。研究の共著者であるカリフォルニア大学バークレー校のハニ・ファリド教授は、「合成顔は非常にリアルであるだけでなく、本物の顔よりも信頼できると判断されることがわかった」と述べている。この結果は、「これらの顔が悪意のある目的に使用された場合、非常に効果的である可能性がある」という懸念をもたらす。

論文には関与していないイタリア・スイス大学ルガーノ校の准教授ピョートル・ディディクは、「我々はまさに危険な深層偽装の世界に入り込んでしまった」と語る。今回の研究で使用された静止画を作成するためのツールは、すでに一般的に入手可能だ。同様に洗練された動画を作成することはより困難だが、そのためのツールはおそらくすぐに一般の人の手に届くようになる」とディディクは主張する。

今回の研究で使用された合成顔は、生成的逆説ネットワークと呼ばれる2つのニューラルネットワークの間で行われた相互作用によって作成された。一方のネットワークは「ジェネレーター」と呼ばれ、学生がラフな論文の奏功を徐々に書き進めていくように、一連の合成顔を進化させていく。識別器と呼ばれるもう1つのネットワークは、実際の画像を使って学習し、生成された出力を実際の顔のデータと比較して評価する。

生成器は、最初はランダムなピクセルで練習を始めた。識別器からのフィードバックにより、徐々にリアルな人間の顔が生成されていく。最終的に、判別器は本物の顔と偽物の顔を見分けることができなかった。

このネットワークは、黒人、東アジア人、南アジア人、白人の男女の顔の実物画像を使って学習したが、これまでの研究では白人男性の顔を使うことが多かったのだ。

研究チームは、400人の実在の顔と400人の合成顔を用意した後、315人に128枚の画像の中から本物と偽物を見分けるように指示した。別のグループ(219人)では、偽物の見分け方についてのトレーニングとフィードバックを受けながら、顔の見分け方を試行錯誤した。最後に、223人の参加者は、128枚の画像の中から信頼性の高いものを選び、1(非常に信頼できない)から7(非常に信頼できる)までの評価を行った。

第1のグループは、本物の顔と偽物の顔を見分けることができるかどうかについて、コイントスよりも優れた結果を得ることができず、平均して48.2パーセントだった。また、第2グループでは、被験者の選択をフィードバックしたにもかかわらず、約59%の精度しか得られず、劇的な改善は見られなかった。また、信頼度を評価するグループの平均評価は、実在の人物が4.48であったのに対し、合成顔は4.82とわずかに高かった。

研究者たちは、このような結果を予想しているなかった。研究の共同執筆者であるソフィー・ナイチンゲールは、「私たちは当初、合成顔は実在の顔よりも信頼性が低いと考えていた」と語る。

不気味の谷の考えが完全に退けられたわけではない。研究参加者は、いくつかの偽物を圧倒的に偽物だと認識した。「生成されたすべての画像が本物の顔と見分けがつかないとは言わないが、かなりの数の画像は見分けがついた」とナイチンゲールは言う。

今回の発見は、誰でも簡単に偽の静止画を作成できる技術の普及に対する懸念を示すものだ。「フォトショップやCGIに関する専門的な知識がなくても、誰でも合成コンテンツを作ることができる」とナイチンゲールは言う。また、今回の研究には参加していない南カリフォルニア大学ビジュアルインテリジェンス・マルチメディアアナリティクス研究室の創設者であるワエル・アブド・アルマゲドは、このような結果が出た場合、偽物が完全に検知できなくなるという印象を与えることを懸念している。彼は、科学者たちが深層偽装への対策をあきらめてしまうのではないかと心配している。しかし彼は、深層偽装の現実性の増加に合わせてその検出を維持することは、「単にフォレンジックの問題の一つに過ぎない」と考えている。

人権保護団体ウィットネスのプログラム戦略・革新担当ディレクターであるサム・グレゴリーは、「この研究コミュニティでは、これらの検出ツールをどのようにして積極的に改善していくかという議論が十分に行われていない」と言う。人々は偽物を見分ける能力を過大評価する傾向があり、「一般の人々は、偽物が悪意を持って使用されていることを常に理解しなければならない」とグレゴリーは言う。

グレゴリーはこの研究に参加していないが、この研究の著者はこれらの問題に直接取り組んでいると指摘している。彼らは、生成された画像に耐久性のある透かしを入れるなど、3つの可能な解決策を挙げている。「生成プロセスから生まれたことがわかるように、指紋を埋め込むようなものだ」と彼は言う。

本研究の著者は、偽物の不正使用は今後も脅威であることを強調した上で、次のように厳しい結論を述べている。「したがって、これらの技術を開発する人には、関連するリスクがメリットよりも大きいかどうかを検討することをお勧めする。「もしそうであれば、可能であるという理由だけで技術を開発することは控えるべきである」と述べている。

Original Article: Humans Find AI-Generated Faces More Trustworthy Than the Real Thing. © 2022 Scientific American.