Forscher des Center for AI Safety (CAIS), des MIT-Medienlabors, der brasilianischen Universität UFABC und der gemeinnützigen Pandemie-Prävention haben festgestellt, dass führende künstliche Intelligenzmodelle erfahrene, PhD-Level-Virologen auf einer neuen Studie zum Laborverfahren, in dem die Finding-Findings-Einführungen in der Finding-Einführung in die Finding-Finding-Einführung in die Finding-Finding-Einführung in die Finding-Einführung in die Finding-Einführung in die Finding-Finding-Einführung übertroffen werden können, übertreffen können. href=”https://www.virologytest.ai/”target=”_ leer”> Virologiefunktionen (VCT) , zeigen die Kenntnisse von KI in spezialisierten wissenschaftlichen Aufgaben, heben aber auch schwerwiegende, doppelte Nutzungsbedenken hervor, was darauf hindeutet, dass diese Tools die Barrier-DECAUT-DECAUTIGE-DECADED-DECAUT-DECTED-DECTING-DECTING-DECTING-DECTED-DECTED-Dokumente unterstreichen. In seinem Forschungsarbeit wurde speziell entwickelt, um die Fähigkeit eines KI zu messen, mit kompliziertem”Wet Lab”-Virologie-Virologie-Protokollen zu helfen, und die grundlegende, visuelle und billiges Verständnis zu bewerten. src=”https://winbuzzer.com/wp-content/uploads/2024/07/ai-research-ai-generated Googles Gemini 2.5 Pro von Google erzielte ebenfalls stark und erzielte 37,6%. Laut der VCT-Analyse übertraf die Leistung von O3 94% der menschlichen Experten für maßgeschneiderte Fragen. missbraucht. Seth Donoughe, ein SecureBio-Forschungswissenschaftler und Studien-Co-Autor, übermittelte seine Befürchtung . In der Geschichte gibt es eine ganze Reihe von Fällen, in denen jemand versuchte, eine Biowaffe zu machen-und einer der Hauptgründe, warum er nicht erfolgreich war, ist, dass sie keinen Zugang zu dem richtigen Fachwissen hatten.

Die VCT-Ergebnisse haben unmittelbare Forderungen nach Maßnahmen von Sicherheitsanwälten vorgenommen. Dan Hendrycks, Direktor des Zentrums für KI-Sicherheit, betonte die Notwendigkeit von sofortiger Maßnahmen und forderte die KI-Unternehmen auf, innerhalb von sechs Monaten robuste Schutzmaßnahmen umzusetzen, und bezeichnete Untätigkeit als „rücksichtslos“.”Wir wollen den Menschen, die eine legitime Verwendung haben, um zu fragen, wie tödliche Viren-wie ein Forscher in der Abteilung für Biologie der MIT-die Fähigkeit dazu manipulieren können, dies zu tun”, erklärte Hendrycks zu Zeit.”Aber zufällige Leute, die vor einiger Sekunde einen Bericht erstellt haben, erhalten diese Funktionen nicht.”Xai, Elon Musks Firma, im Februar, veröffentlichte einen Risikomanagement-Framework Anerkennung der Papier und die Erwähnung der potenziellen Virologie-Safeguards für das GROK-Vorbild, um es zu schämen.”Eingesetztes neue Minderungen auf Systemebene für biologische Risiken”für seine kürzlich veröffentlichten O3-und O4-Mini-Modelle, einschließlich spezifischer Maßnahmen wie”Blockieren von schädlichen Ausgängen”. Rotteaming ist eine gängige Sicherheitspraxis, die simulierte Angriffe umfasst, um Schwachstellen zu finden. Anthropic, ein weiteres führendes KI-Labor, hat die VCT-Ergebnisse in seiner Systemdokumentation anerkannt, bot jedoch keine spezifischen Minderungspläne an, während Google es ablehnte, die Angelegenheit zu Zeit zu äußern. Tom Inglesby vom Johns Hopkins Center for Health Security setzte sich für die Regierungspolitik und-regulierung ein.”Die derzeitige Situation ist, dass die Unternehmen, die am tugendhaftesten sind, Zeit und Geld für diese Arbeit nehmen, was für uns alle gut ist, aber andere Unternehmen müssen es nicht tun”, sagte er zu Time und fügte hinzu:”Das macht keinen Sinn.”Inglesby schlug vor ihrer Veröffentlichung obligatorische Bewertungen für neue Großsprachenmodelle vor, um sicherzustellen, dass es keine Ergebnisse auf Pandemieebene erzeugt. OpenAI, Schöpfer des optimalen O3-Modells, war bereits bekannt, dass er biologische Anwendungen untersucht. Winbuzzer berichtete im Januar über seine Zusammenarbeit mit Retro-Biosciences unter Verwendung eines Modells mit dem Namen GPT-4B Micro, um Proteine ​​zu optimieren, die an der Erstellung von Stammzellen beteiligt sind. Neben der Gemini-Modellfamilie prognostiziert das weit verbreitete Alphafold-Programm Proteinstrukturen, während ein im Februar detailliertes „KI-Co-Wissenschaftler“-Projekt darauf abzielt, neue wissenschaftliche Hypothesen zu erzeugen, die manchmal die unveröffentlichte menschliche Forschung spiegelt. Alphafolds statische Vorhersagen. Diese Instrumente, die sich auf Proteintechnik, Hypothesenerzeugung und molekulare Simulation konzentrieren, veranschaulichen die expandierende Rolle der KI und über die Datenanalyse über das komplexe wissenschaftliche Denken und die Verfahrensunterstützung hinaus und verstärken sowohl die potenziellen wissenschaftlichen Gewinne als auch die von der VCT hervorgehobenen Sicherheitsherausforderungen.

Categories: IT Info