Para peneliti dari Pusat Keselamatan AI (CAIS), MIT’s Media Lab, UFABC Universitas Brasil, dan Pandemi Pencegahan Nirlaba Securebio telah menemukan bahwa model intelijen buatan terkemuka dapat mengungguli, virologi level PhD dalam prosedur laboratorium yang kompleks. href=”https://www.virologytest.ai/”target=”_ blank”> tes kemampuan virologi (VCT) , menunjukkan kemahiran AI dalam tugas-tugas ilmiah khusus tetapi juga menyoroti detail yang lebih serius, menyarankan alat-alat penting untuk membuat penghalang untuk membuat panduan yang berbahaya. makalah penelitian , dirancang khusus untuk mengukur kemampuan AI untuk membantu dengan protokol virologi’lab lab lab’yang rumit, menilai laboratorium, visual, dan pemahaman laboratorium-hal-hal yang sering diketahui oleh orang-orang. src=”https://winbuzzer.com/wp-content/uploads/2024/07/ai-research-ai-generated.jpg”>

Hasilnya menunjukkan model O3 OpenAI mencapai akurasi 43,8%, yang secara substansial melebihi pertanyaan-pertanyaan virologi manusia. Google Gemini 2.5 Pro juga berkinerja kuat, mencetak 37,6%. Menurut analisis VCT, kinerja O3 melampaui 94% pakar manusia pada subset pertanyaan yang disesuaikan.

ai virologi chatbots berpose dilema penggunaan ganda

Kapabilitas AIO yang muncul-memberikan panduan laboratorium yang bermanfaat untuk laboratorium. disalahgunakan. Seth Donoughe, seorang ilmuwan riset SecureBio dan rekan penulis studi, menyampaikan kekhawatirannya , yang menyatakan temuan itu menjadikannya”saraf kecil”. Ada cukup banyak kasus di mana seseorang berusaha untuk membuat bioweapon-dan salah satu alasan utama mengapa mereka tidak berhasil adalah karena mereka tidak memiliki akses ke tingkat keahlian yang tepat… jadi tampaknya bermanfaat untuk berhati-hati tentang bagaimana kemampuannya yang didistribusikan. Teknologi.

Temuan VCT memacu panggilan langsung untuk tindakan dari advokat keselamatan. Dan Hendrycks, Direktur Pusat Keselamatan AI, menekankan perlunya tindakan segera, mendesak perusahaan AI untuk menerapkan perlindungan yang kuat dalam waktu enam bulan, menyebut tidak bertindak”ceroboh.”

Dia mengadvokasi kontrol akses berjenjang atau terjaga keamanannya sebagai strategi mitigasi potensial. “Kami ingin memberi orang-orang yang memiliki penggunaan yang sah untuk bertanya bagaimana memanipulasi virus mematikan-seperti peneliti di departemen biologi MIT-kemampuan untuk melakukannya,” Hendrycks menjelaskan waktu. “Tetapi orang-orang acak yang membuat akun kedua yang lalu tidak mendapatkan kemampuan itu.”

tanggapan industri dan seruan untuk pengawasan

Setelah diberi pengarahan pada hasil VCT beberapa bulan yang lalu, pengembang AI telah bereaksi secara berbeda. XAI, Perusahaan Elon Musk, pada bulan Februari, menerbitkan stated it “deployed new system-level mitigations for biological risks”for its recently released o3 and o4-mini models, including specific measures like “blocking harmful outputs.”

This measure reportedly resulted from a “thousand-hour red-teaming campaign in which 98.7% of unsafe bio-related conversations were successfully flagged and blocked.”Time-Teaming adalah praktik keamanan umum yang melibatkan serangan simulasi untuk menemukan kerentanan. Anthropic, laboratorium AI terkemuka lainnya, mengakui hasil VCT dalam dokumentasi sistemnya tetapi tidak menawarkan rencana mitigasi khusus, sementara Google menolak untuk mengomentari masalah tersebut ke waktu.

Namun, beberapa ahli percaya pemolisian sendiri oleh industri tidak cukup. Tom Inglesby dari Johns Hopkins Center for Health Security mengadvokasi kebijakan dan peraturan pemerintah.”Situasi saat ini adalah bahwa perusahaan yang paling berbudi luhur mengambil waktu dan uang untuk melakukan pekerjaan ini, yang baik untuk kita semua, tetapi perusahaan lain tidak harus melakukannya,”katanya kepada Time, menambahkan,”Itu tidak masuk akal.”Inglesby mengusulkan evaluasi wajib untuk model bahasa besar baru sebelum rilis mereka”untuk memastikan itu tidak akan menghasilkan hasil tingkat pandemi.”

AI yang berkembang jejak dalam penelitian ilmiah

Hasil VCT tidak ada insiden yang terisolasi tetapi lebih merupakan titik data Stark. Openai, pencipta model O3 berkinerja terbaik, sudah diketahui mengeksplorasi aplikasi biologis; WinBuzzer melaporkan pada bulan Januari tentang kolaborasinya dengan biosains retro menggunakan model bernama GPT-4B micro untuk mengoptimalkan protein yang terlibat dalam pembuatan sel induk.

Demikian pula, Google DeepMind telah sangat aktif. Selain keluarga model Gemini, program Alphafold yang banyak digunakan memprediksi struktur protein, sementara proyek”co-scientist AI”, yang dirinci pada bulan Februari, bertujuan untuk menghasilkan hipotesis ilmiah baru, kadang-kadang mencerminkan penelitian manusia yang tidak diterbitkan. Alat-alat ini, yang berfokus pada rekayasa protein, generasi hipotesis, dan simulasi molekuler, menggambarkan peran AI yang berkembang, bergerak melampaui analisis data menuju penalaran ilmiah yang kompleks dan bantuan prosedural-memperkuat keuntungan ilmiah yang potensial dan tantangan keamanan yang disorot oleh VCT.