ウイルス学者の研究室に新しい同僚が加わったが、その同僚は人間ではない。 TIME 誌に独占公開された最近の研究では、GPT や Claude などの AI モデルが、研究室での複雑な問題の解決において博士号を持つウイルス学者よりも優れていることが明らかになりました。 これは画期的な転換点です。 専門のウイルス学者は 申告した専門分野で平均22,1%のスコアを達成した, il OpenAI o3モデル 43,8%の精度を達成しました。 「少し緊張します」と彼は認める。 セス・ドナウセキュアバイオの研究員でこの研究の共著者である氏は、「歴史上初めて、事実上誰もが、生物兵器を作成するための複雑な実験プロセスを指導できる、偏見のないAIウイルス学の専門家にアクセスできるようになったからです」と述べている。不安な疑問を生じさせる根拠のある懸念: インターネットに接続できる人なら誰でも致命的なウイルスを作成できる世界に私たちは備えているでしょうか?
技術的なダモクレスの剣
この研究は、 AI安全性センターの MITメディアラボブラジルの大学の UFABC そして非営利団体 セキュアバイオ. 結果は印象的であると同時に心配なものである。 OpenAIのO3の43,8%の精度に加えて、GoogleのGemini 2.5 Proも 驚異的な37,6%に達した明らかに人間の専門家を上回っています。

これらは理論的な質問でも、簡単に「グーグルで検索できる」質問でもありません。これらのテストは、複雑な実用的な問題を解決する能力を測定するために特別に設計されました。 「質問はこんな感じです。『この特定のウイルスを、この種類の細胞で、この特定の条件下で、この期間培養しました。何がうまくいかなかったのかについて、これだけの情報があります。最も可能性の高い問題は何か教えていただけますか?』」と彼は説明する。 ドナウ.
これらのモデルが改良されている速度も同様に驚くべきものです。 例えば、アントロピックのクロード3.5ソネットでは、 26,9年33,6月モデルと2024年2024月モデルの間で精度はXNUMX%からXNUMX%に上昇した。。 OpenAI の GPT 4.5 の暫定版 GPT-4oを10パーセント近く上回りました。
AIがウイルス学者を上回る:コインの明るい面
リスクはあるものの、この発見がもたらすプラスの影響は計り知れない。人工知能は、医薬品やワクチンの開発を加速し、臨床試験の設計を改善し、病気の検出方法を改良することで、ウイルスと闘う専門のウイルス学者の重要な仕事に役立つ可能性があります。
トム・イングルスビーのディレクター ジョンズ・ホプキンス健康安全保障センターは、別の潜在的な利点を強調しています。「これらのモデルは、まだそのような専門知識や能力を持たない世界各地の科学者が、自国で発生する病気について貴重な日常的な研究を行うのに役立つ可能性があります。」
たとえば、ある研究者グループは、AI がサハラ以南のアフリカにおける出血熱ウイルスの理解を深めるのに役立ったことを発見しました。

知識のダークサイド
ウイルス学と生物医学は長い間、AI リーダーたちがさらに強力なモデルを構築するための動機の最前線にありました。問題は、最も危険で珍しい感染性物質を扱うバイオセーフティーレベル4(BSL-4)の実験室に入るために必要な通常の訓練を全く受けていない悪意のある人物が、同じツールを使ってウイルスや生物兵器を作成する可能性があることだ。
「歴史上、生物兵器の開発が試みられた例は数多くあるが、成功しなかった主な理由の一つは、適切なレベルの専門知識が得られなかったことだ」と彼は説明する。 ドナウ。 「だからこそ、こうした能力がどのように分配されるかについては慎重になる必要があります。」
数か月前、この研究の著者らは研究結果を主要なAI研究所に提出した。それに応えて、 xAI Grok モデルの将来のバージョンにウイルス学的安全対策を実施することを約束するリスク管理フレームワークを公開しました。また OpenAI 同社は先週発表した新モデルについて「生物学的リスクに対するシステム全体の新たな緩和策を実施した」と述べた。 人間原理 最近のシステム概要にモデルのパフォーマンス結果が含まれていましたが、具体的な緩和策は提案されていません。責任者 双子座 Google AIは現時点でタイム誌の社説に対するコメントを拒否した。
考えられる解決策
ダン・ヘンドリックスAI安全センターのディレクターである氏は、AI企業に対し、このような使用を防ぐための「ガードレール」を実装するよう促している。
「企業が6ヶ月以内に適切な安全対策を講じなければ、それは賭けだと思う」と彼は言う。
ヘンドリックス氏は、解決策はこれらのモデルを停止したり、その進歩を遅らせたりすることではなく、信頼できる第三者だけがフィルタリングされていないバージョンにアクセスできるように「モデルをぐるぐる回らせる」ことだと主張している。 「(MIT生物学部の研究者のように)合法的にそれを使用している人にのみ、致死性のウイルスを操作する方法を尋ねる権限を与えるべきだ」と彼は言う。 「しかし、ほんの数秒前にアカウントを作成した一般の人々がそうすることはできないはずです。」
一方、イングルズビー氏は、この分野における自主規制だけでは不十分だと主張する。そして、立法者や政治指導者に対し、AIのバイオリスクを規制するための政策アプローチを開発するよう求めている。 「現状では、最も善良な企業がこの作業に時間とお金を費やしており、それは私たち全員にとって良いことですが、他の企業はそれをする必要がないのです」と彼は言う。 「意味が分からない。国民が何が起きているのか理解できないのは良くない」
「LLMの新しいバージョンがリリースされるとき」と彼は付け加える。 英語:「そのモデルを評価し、パンデミックレベルの結果を生み出さないことを確認する必要があるはずだ」
私たちは、高度な知識の民主化が、前例のない実存的リスクももたらす時代の到来を目撃しています。より強力な人工知能を目指す競争は、私たちの統治構造や倫理的思考が追いつけないほどのペースで進んでいます。
理想的な世界では、これらのテクノロジーは利益だけをもたらすでしょうが、歴史は、用心するに越したことはないと教えています。