過熱するAI人類絶滅論の負の側面
AIの脅威によって人類の絶滅を示唆する言説が飛び交っている。リスクの指摘は重要だが、報道やSNSを通じて過剰反応を引き起こし始めており、負の側面が顕在化している。
AIの脅威によって人類の絶滅を示唆する言説が飛び交っている。リスクの指摘は重要だが、報道やSNSを通じて過剰反応を引き起こし始めており、負の側面が顕在化している。
4月、AIの害に関する上院公聴会で、OpenAIのCEOであるサム・アルトマンは、この技術がもたらす重大な危険性から、議会に規制を求めた。
5月下旬、非営利団体「センター・オブ・AIセーフティー(Center for AI Safety)」に掲載された、AIが「人類絶滅のリスク」につながりうるとして対策を求める書簡には、アルトマン、Google DeepMindのデミス・ハサビスCEO、Anthropicのダリオ・アモデイCEOといった、テクノロジー企業のトップが署名。カナダ・トロント大のジェフリー・ヒントン名誉教授、モントリオール大のヨシュア・ベンジオ教授ら著名学者らも名を連ねた。
サンフランシスコに拠点を置くこのグループは、350人以上のエンジニア、経営者、研究者が署名した1文の声明の中で、基本的にAIを人類に対する存亡の危機と位置づけている。「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきだ」と、センターは声明で述べている。
最近のAIの急速な進歩をめぐって、人類絶滅のリスクに関する議論はメディアを揺るがすようになっているが、滅亡論の伝播について、社会に対する負の側面を指摘する声も上がっている。
- 「Googleの猫」と呼ばれる主要なブレークスルーの立役者である、スタンフォード大学のAI研究者のアンドリュー・ンは5月にTwitterに投稿した動画の中で、この分野の他の経営者や専門家の終末予測に疑問を表明した。「正直なところ、私には理解できない。AIが我々の絶滅に対して、どのような意味のあるリスクをもたらすのか、理解に苦しんでいる」。
- ただ、ンはAIには一定のリスクがあることを認めた。バイアスがあったり、不正確だったりすることもあるという。特定の人々を失業させる可能性もある。そして、特定の人や企業に権力を集中させる可能性もある。
- AI研究者でありニューヨーク大学准教授のKyunghyun Choは、AIのリスクをめぐる「絶滅の物語」に同意せず、絶滅論が生む過剰な反応が、AIの社会実装に関連するプラスとマイナスの両側面から目を逸らすと主張した。Choは、米メディアVentureBeatとのインタビューで、最近の上院公聴会について不満を表明し、AIの有益な利用を増やす方法に関する具体的な提案や議論がないことに失望を表明した。
- Choは、また、多くの汎用人工知能(AGI)の取り組みに資金を提供している「効果的利他主義(Effective Altruism)」運動についても懸念を示している。彼は、AIの小さな成功に焦点を当て、AIの利点と潜在的なリスクについて一般大衆を教育することを提唱している。
- 元Google BrainのAI倫理研究者であるTimnit Gebruは、現在進行中の「人類滅亡の物語」をDDoS攻撃(*)に例え、より緊急な問題から目を逸らし、本来のリスクに焦点を当てた研究に不当な社会的圧力をかけていると述べている。
- オレゴン州立大学のコンピュータサイエンス名誉教授であるThomas G. Dietterichは、一部の著名人の立場に困惑を示し、深層学習以外では、ほとんどの研究者が、大規模言語モデル(LLM)の認識能力に業界や報道機関が過剰反応していると考えていると述べた。Dietterichは、コンピュータがもたらす最も大きなリスクとしてサイバー攻撃を挙げている。
注釈
*1:攻撃者がサーバーにインターネットトラフィックを殺到させ、ユーザーが接続しているオンラインサービスやサイトにアクセスできないようにするサイバー犯罪