急速に進歩する言語AIが人々の意見を操る恐れ

ジョージタウン大学セキュリティ・新興テクノロジーセンター(CSET)、OpenAI、スタンフォード大学インターネット観測所(SIO)の科学者による新研究は、目覚ましい進歩を遂げている言語AIが、現在インターネット上で活発に行われている世論操作を高度化してしまう恐れについて警鐘を鳴らしている。

大規模言語モデル(LLM)は大規模なコンテンツ作成を可能にし、人件費を削減し、ボット活動の検出をより困難にすることで、インフルーエンス・オペレーション(影響力工作)を後押しできることを研究者は発見している。

研究者は、LLMがアクター、行動、コンテンツというインフルーエンス・オペレーションの3つの重要な要素にすべてに影響を与えると見ている。

LLMは、まとまった長文のテキストを簡単に生成できるため、より多くのアクターが影響力行使にLLMを利用することに魅力を感じるようになるでしょう。これまでコンテンツの作成には人間のライターが必要でだったが、これにはコストがかかり、拡張性も低く、また行為者がその活動を隠そうとする場合にはリスクが伴う。

LLMは完璧ではなく、テキストを生成する際に愚かなミスを犯すことがある。しかし、LLMと結合したライターは、ゼロから書くのではなく、コンピューターで生成されたテキストを編集することで、より生産的になることができる。言語モデルは、より使いやすく、信頼性が高く、効率的になる可能性が高い。

論文の共同執筆者でCSETのサイバーAIプロジェクトの研究員であるジョシュ・A・ゴールドスタイン博士は、VentureBeatに「プロパガンダ担当者にとって、言語生成ツールは役に立つ可能性が高いと主張している:コンテンツを生成するコストを押し下げ、同じ量のコンテンツを作るのに必要な人間の数を減らすことができる」と述べた。