Naukowcy z Center for AI Safety (CAIS), MIT’s Media Lab, Brazylian University UFABC i Pandemic Prevention Non-profit Securebio odkryli, że wirusowe opracowanie sztucznej inteligencji mogą przewyższyć doświadczone, wirologowie na poziomie doktoranckim w rozwiązywaniu problemów złożonych zabiegów w laboratorium. href=”https://www.virologytest.ai/”target=”_ puste”> test zdolności wirologii (vct) , wykazać biegłość AI w wyspecjalizowanych zadaniach naukowych, a także podkreślają poważne obawy podwójnego użytku, sugerując, że te narzędzia mogą obniżyć barierę do tworzenia niebezpiecznych agentów biologicznych biologicznych. Its artykuł badawczy , został zaprojektowany specjalnie w celu pomiaru zdolności AI do pomocy w skomplikowanych protokole wirusologii „mokrej laboratorium”, oceny podstawowych, wizualnych i milczących zrozumienia-rodzaju praktycznego wiedzy często zdobywanej przez hing-on laboratorium. src=”https://winbuzzer.com/wp-content/uploads/2024/07/ai-research-ai-generated.jpg”>
Wyniki pokazały, że model O3 O3 osiągnął 43,8% dokładności, zasadniczo przekraczającą 22,1% ocenianych przez specjalizowanych ludzkich wirusologów odpowiadających na pytania. Google’s Gemini 2.5 Pro również działało silnie, zdobywając 37,6%. Zgodnie z analizą VCT wydajność O3 przekroczyła 94% ekspertów od ludzi w zakresie dostosowanych podgrup pytań.
AI Virologist Chatbots stanowią dilemmę podwójnego użycia
Ta pojawiająca się zdolność AI-zapewniająca wskazówki dotyczące wrażliwego poziomu laboratoryjnego, daje wrażliwą dystrybucję, ale dążenie do uprawnień, ale pozytywne podawanie na poziomie LAB. jeśli jest niewłaściwie używany. Seth Donoughe, współautor badawczy i współautor badawczy Securebio, przekazał swoje obawy Do czasu , stwierdzając, że wyniki stały się „małe nerwowe. Historia, istnieje wiele przypadków, w których ktoś próbował stworzyć biowid-i jednym z głównych powodów, dla których nie odnieśli sukcesu, jest to, że nie mieli dostępu do właściwego poziomu wiedzy specjalistycznej… więc wydaje się, że warto zachować ostrożność w zakresie, w jaki sposób te możliwości są rozdzielane. „
odzwierciedlając to, odzwierciedlając to, technologie, które odzwierciedlają to technologie naukowe.
Odkrycia VCT pobudziły natychmiastowe wezwania do działania od zwolenników bezpieczeństwa. Dan Hendrycks, dyrektor Centrum Bezpieczeństwa AI, podkreślił potrzebę natychmiastowych działań, wzywając firmy AI do wdrożenia solidnych zabezpieczeń w ciągu sześciu miesięcy, nazywając bezczynność „lekkomyślną.”
Opowiadał się za warstwą warstwy lub bramkowanej kontroli dostępu jako potencjalnej strategii łagodzenia. „Chcemy dać ludziom, którzy mają uzasadnione zastosowanie, prosząc, jak manipulować śmiertelnymi wirusami-jak badacz w dziale biologii MIT-zdolność do tego”-wyjaśnił Hendrycks czas. „Ale przypadkowe osoby, które zorganizowali konto sekundę temu, nie otrzymują tych możliwości.”
Odpowiedzi branżowe i wzywają do nadzoru
Po tym, jak zostali poinformowani o wynikach VCT kilka miesięcy temu, programiści AI zareagowali inaczej. Xai, firma Elona Muska, w lutym, opublikował ramy zarządzania ryzykiem Uznając artykuł i wspominając o potencjalnych zabezpieczeniach wirusowych dla jego modelu GRAK, takie jak szkolenie to, aby zmniejszyć prośby. „Wdrożono nowe łagodzenie systemu na ryzyko biologiczne” dla niedawno wydanych modeli O3 i O4-Mini, w tym określonych środków, takich jak „blokowanie szkodliwych wyników”.
Podobno miarę wynika z „tysiąc godzin czerwonych zespołów, w której 98,7% UNSAFE UNSAFE BIOFED i zablokowano”. Czerwona drużyna jest powszechną praktyką bezpieczeństwa obejmującą symulowane ataki w celu znalezienia luk. Antropic, kolejne wiodące laboratorium AI, potwierdził, że VCT wyniki w dokumentacji systemowej, ale nie oferował żadnych konkretnych planów łagodzenia, podczas gdy Google odmówił skomentowania tej sprawy.
Jednak niektórzy eksperci uważają, że samozatrudnianie przez branżę nie jest wystarczające. Tom Inglesby z Johns Hopkins Center for Health Security opowiadał się za polityką i regulacją rządową. „Obecna sytuacja polega na tym, że firmy, które są najbardziej cnotliwe, wymagają czasu i pieniędzy na wykonanie tej pracy, co jest dobre dla nas wszystkich, ale inne firmy nie muszą tego robić”, powiedział czas, dodając: „To nie ma sensu”. Inglesby zaproponował obowiązkowe oceny nowych dużych modeli języków przed ich wydaniem „Aby upewnić się, że nie będzie to spowodować wyników na poziomie pandemicznym.”
rozszerzający się ślad AI w badaniach naukowych
Wyniki VCT nie są odosobnionym incydentem, ale raczej podstawowym punktem, a raczej na szerokim poziomie lądowym, gdy AI jest szybkie integrujące się w specjalistycznych flach. Openai, twórca najwyższej jakości modelu O3, był już znany z eksploracji zastosowań biologicznych; Winbuzzer poinformował w styczniu w styczniu w swojej współpracy z retro biosciences przy użyciu modelu o nazwie Micro GPT-4B w celu optymalizacji białek zaangażowanych w tworzenie komórek macierzystych.
Podobnie, Google Deepmind był bardzo aktywny. Oprócz rodziny modelu Gemini, jego powszechnie stosowany program Alphafold przewiduje struktury białkowe, podczas gdy projekt „AI-Storentist”, szczegółowo opisany w lutym, ma na celu wygenerowanie nowych hipotez naukowych, czasami odzwierciedlając niepublikowane badania ludzkie.
Microsoft wprowadził Fray w lutym z bioemu-1, modelującym modelem, który przewiduje dynamiczne przemieszczanie się białek, uzupełniając, kompetentowanie, a także kompozytorowanie białek., Komplementowanie. Statyczne prognozy Alphafolda. Te narzędzia, koncentrując się na inżynierii białkowej, generowaniu hipotez i symulacji molekularnej, ilustrują rozszerzającą się rolę AI, wykraczając poza analizę danych w kierunku złożonego rozumowania naukowego i pomocy proceduralnej-wzmacniając zarówno potencjalne zyski naukowe, jak i wyzwania bezpieczeństwa podkreślone przez VCT.