AI創薬システムが化学兵器の製造に再利用される可能性を研究者が警告
"DNA lab" by umseas is marked with CC BY 2.0.

AI創薬システムが化学兵器の製造に再利用される可能性を研究者が警告

AI創薬システムが化学兵器の製造に再利用される可能性を研究者が警告した。研究者たちは、分子の正確な構造を入力せずに、VXに似た物質を生成するようにソフトウェアに依頼しただけだった。

サイエンティフィック・アメリカン

[著者:Rebecca Sohn]2020年、希少疾患や感染症の新薬候補を専門に探す企業、コラボレイション・ファーマシューティカルズは、一風変わった依頼を受けた。ノースカロライナ州ローリーの民間企業であるこの会社は、化学・生物兵器に関する国際会議での講演を依頼されたのだ。講演の内容は、ピット・ホプキンス症候群(PTHS)やシャーガス病などの治療薬開発によく使われる人工知能ソフトウェアが、より悪質な目的のために横流しされる可能性があるというものであった。

コラボレーションの最高責任者であるショーン・エキンスは、この誘いに応え、同社の上級科学者であるファビオ・ウルビナとともにブレインストーミングを開始した。二人があるアイデアを思いつくのに時間はかからなかった。動物毒性データを使って薬の危険な副作用を回避する代わりに、AIベースのMegaSynソフトウェアを使って、神経ガスとして有名なVXに類似した毒性分子の大要を生成したらどうだろうか?

その中にはVXだけでなく、既知の化学兵器や、全く新しい毒性を持つ物質も含まれていた。必要なのは、ちょっとしたプログラミングとオープンソースのデータ、2015年製のMacコンピュータ、そして6時間弱だけだった。「少し非現実的な感じがした」とウルビナは言い、このソフトウェアの出力が、同社の商用医薬品開発プロセスに似ていることを指摘する。「このような生成モデルを用いて、希望に満ちた新薬を生み出すというのは、私たちが以前から行ってきたことと何ら変わりない」。

この会議は2年に1度開催され、国家安全保障に脅威を与える可能性のある生物・化学研究の新しい傾向を評価するものだ。さらに、ウルビナとエキンスらは、学術誌『Nature Machine Intelligence』に同社の研究に関する査読付きの解説を発表し、ホワイトハウスの科学技術政策室に対して、この研究結果に関するブリーフィングを行うまでに至った。キングス・カレッジ・ロンドンの科学・安全保障研究センターの共同ディレクターで、この論文の共著者であるフィリッパ・レンゾスは、「(この研究は)この分野の政策展開に役立つ踏み台になり得ると感じている」と述べている。

同社の日々のルーチンワークと不気味なほど似ていることに驚かされた。研究者たちは以前にもMegaSynを使って、VXと同じ分子標的を持つ治療可能な分子を生成した、とウルビナは言う。アセチルコリンエステラーゼ阻害剤と呼ばれるこの薬物は、アルツハイマー病などの神経変性疾患の治療に役立つ。今回の研究では、研究者たちは、分子の正確な構造を入力せずに、VXに似た物質を生成するようにソフトウェアに依頼しただけであった。

MegaSynを含む多くの創薬AIは、人工神経回路網を利用している。メリーランド大学薬学部のコンピューター支援薬物設計センターのディレクターであるアレックス・マッケレルは、「基本的には、ニューラルネットが、生物活性という特定の目的地に到達するためにどの道を通ればよいかを教えてくれる」と言う。AIシステムは、特定のタンパク質に対する阻害作用や活性化作用など、一定の基準に基づいて分子を「採点」する。スコアが高ければ高いほど、その物質が期待通りの効果を発揮する可能性が高いと研究者は判断する。

その結果、MegaSynが生成した新規分子の多くは、VXよりも毒性が強いことが判明した。彼らは、このプログラムを実行した時点で、すでに倫理的な境界を越えてしまったのではないかと考え、これ以上計算で結果を絞り込むようなことはせず、ましてやその物質を何らかの形で試験することはしないことにした。

生命倫理学者でエモリー大学倫理センター長のポール・ルート・ウォルプは、この研究には参加していないが、「彼らの倫理的直感はまさに正しかったと思う」と言う。ウォルプは、人工知能のような新しい技術に関連する問題について、頻繁に執筆や考察を行っている。著者がこれが潜在的な脅威であることを実証できたと感じた時点で、「彼らの義務はそれ以上押し進めないことだった」と彼は言う。

しかし、一部の専門家は、AIソフトウェアを使って毒素を見つけることが、実際の生物兵器の開発に現実的につながるかどうかという重要な疑問に答えるには、この研究は十分ではなかったと述べている。

ジョージ・メイソン大学のシャー政策行政大学院の生物学的防衛プログラムの准教授で、この研究には関与していないソニア・ベン・オアグラム=ゴームリーは、「過去の兵器開発計画における実際の兵器開発は、理論的には可能と思えることが実際には不可能であることを何度も示している」とコメントしている。

その課題にもかかわらず、AIが潜在的に危険な物質を大量に迅速に生成することが容易であるため、致死的な生物兵器の作成プロセスを加速させる可能性があると、ジョンズ・ホプキンス大学シドニー・キンメル総合がんセンターの定量科学副部長で、この研究にも関わっていないエラナ・ファーティグは述べている。

この論文の著者らは、これらの技術を悪用されにくくするために、これらの技術を誰がどのように使用できるかを監視・管理する方法をいくつか提案している。たとえば、悪用されやすいモデルやデータ、コードにアクセスする前に、利用者に事前審査プロセスを受けさせ、資格を確認させる待機リストなどが挙げられる。

また、創薬AIは、アプリケーションプログラミングインターフェース(API)を通じて一般に公開することを提案している。APIは、2つのソフトウェアが互いに通信できるようにする仲介役である。ユーザーは、APIから分子データを特別に要求する必要がある。エキンスは、サイエンティフィック・アメリカン誌への電子メールで、APIは潜在的な毒性を最小化する分子のみを生成するような構造にすることができ、「ユーザーが特定の方法でツールやモデルを適用することを要求する」と書いている。APIにアクセスできるユーザーも限定することができ、ユーザーが一度に生成できる分子の数にも制限を設けることができる。しかし、ベン・オウガラム=ゴームリーは、この技術が生物兵器の開発を容易に助長する可能性があることを示さなければ、このような規制は時期尚早であると主張する。

一方、ウルビナとエキンスは、自分たちの研究を、この技術の悪用という問題に注意を喚起するための第一歩と位置づけている。「私たちは、このような技術が悪いものであると主張したいわけではない。しかし、そこには暗黒面がある。注意すべき点があり、それを考慮することが重要だと思っている」

Original Article: AI Drug Discovery Systems Might Be Repurposed to Make Chemical Weapons, Researchers Warn.

©2022 Scientific American.

ML