AI Safety Center(CAIS)、MITのメディアラボ、ブラジル大学UFABC、およびパンデミック予防非営利のSecureBioの研究者は、主要な人工知能モデルが経験豊富な経験豊富な、複雑な実験室の手順をトラブルシューティングするPHDレベルのウイルス学者を上回ることができることを発見しました。 href=”https://www.virologytest.ai/”ターゲット=”_ blank”>ウイルス能力テスト(vct)は、特殊な科学的タスクにおけるAIの習熟度を示していますが、これらのツールが危険な生物学的な存在を作成するための障壁を下げることができることを示唆する深刻なデュアル使用懸念も強調しています。その研究論文は、複雑な「ウェットラボ」ウイルス学プロトコルを支援し、基本、視覚、および暗黙の理解を評価するAIの能力を測定するために設計されました。 src=”https://winbuzzer.com/wp-content/uploads/2024/07/ai-research-ai-generated.jpg”>

結果は、OpenaiのO3モデルが43.8%の精度を達成し、特殊な人間の毒性作用に応じて22.1%の平均を超えて、平均22.1%を超えたことを示しました。 GoogleのGemini 2.5 Proも強くパフォーマンスを発揮し、37.6%を獲得しました。 VCT分析によると、O3のパフォーマンスは、カスタマイズされた質問サブセットで人間の専門家の94%を超えました。悪用されている場合。 SecureBioの研究科学者であり研究の共著者であるSeth Donougheは、彼の不安を伝えましたリスク管理フレームワークを公開しました論文を認め、潜在的なウイルス学の潜在的なウイルス学セーフィモデルの潜在的なウイルスセーフェアーズに言及しています。最近リリースされたO3およびO4-MINIモデルの「生物学的リスクのための新しいシステムレベルの緩和を展開」しました。これには、「有害な出力をブロックする」などの特定の手段を含む。レッドチーミングは、脆弱性を見つけるためのシミュレートされた攻撃を含む一般的なセキュリティプラクティスです。別の主要なAIラボである人類は、VCTがシステムのドキュメントで結果をもたらすことを認めましたが、特定の緩和計画は提供しませんでしたが、Googleは当時の問題についてコメントすることを拒否しました。ジョンズホプキンスセンターフォーヘルスセキュリティセンターのトムイングルスビーは、政府の政策と規制を提唱しました。 「現在の状況は、最も高潔な企業がこの仕事をするために時間とお金をかけていることです。これは私たち全員にとって良いことですが、他の企業はそれをする必要はありません」と彼は時間に語り、「それは意味がありません」と付け加えました。 Inglesbyは、「パンデミックレベルの結果を生み出さないようにするために」リリース前に新しい大手言語モデルの強制評価を提案しました。

AIの科学研究におけるフットプリントの拡大

<> VCT結果は、孤立した事件ではなく、むしろ広範なランドスケープ内のStarkデータポイントです。トップパフォーマンスのO3モデルの作成者であるOpenaiは、生物学的応用を調査していることがすでに知られています。 Winbuzzerは、1月に、幹細胞の作成に関与するタンパク質を最適化するためにGPT-4B Microという名前のモデルを使用したレトロな生物科学とのコラボレーションについて報告しました。 Geminiモデルファミリーに加えて、広く使用されているAlphaFoldプログラムはタンパク質構造を予測しますが、2月に詳述された「AI共科学者」プロジェクトは、未発表の人間の研究を反映することもあります。予測。タンパク質工学、仮説生成、および分子シミュレーションに焦点を当てたこれらのツールは、AIの拡大する役割を示し、データ分析を超えて複雑な科学的推論と手続き的支援に向けて移動します。

Categories: IT Info