ai virolog chatbots utgjør dilemma med to bruk misbrukt. Seth Donoughe, en SecureBio-forsker og studieforfatter, formidlet sin bekymring to time , uttalte funnet til å”_”_ blank”til tiden state funnet som ble”_ _ blank. there are a fair number of cases where someone attempted to make a bioweapon—and one of the major reasons why they didn’t succeed is because they didn’t have access to the right level of expertise… So it seems worthwhile to be cautious about how these capabilities are being distributed.”
Reflecting this, the VCT researchers propose that this AI skill warrants inclusion within governance frameworks designed for dual-use life science technologies.
VCT-funnene ansporet umiddelbare oppfordringer til handlinger fra sikkerhetsforkjemperne. Dan Hendrycks, direktør for Center for AI Safety, understreket behovet for umiddelbar handling, og oppfordret AI-selskaper til å implementere robuste beskyttelsesregler innen seks måneder, og kalte passivitet “hensynsløs.”
Han tok til orde for lagdelt eller inngjerdet tilgangskontroll som en potensiell avbøtningsstrategi.”Vi ønsker å gi menneskene som har en legitim bruk for å spørre hvordan de skal manipulere dødelige virus-som en forsker ved MIT-biologiavdelingen-evnen til å gjøre det,”forklarte Hendrycks til Time.”Men tilfeldige personer som laget en konto for et sekund siden får ikke disse mulighetene.”
bransjesvar og etterlyser tilsyn
Etter å ha blitt orientert om VCT-resultatene for måneder siden, har AI-utviklere reagert annerledes. Xai, Elon Musks selskap, i februar, publiserte en risikostyringsramme //anerkjenne>
Imidlertid mener noen eksperter selvpolitikk fra bransjen ikke er tilstrekkelig. Tom Inglesby fra Johns Hopkins Center for Health Security gikk inn for statlig politikk og regulering.”Den nåværende situasjonen er at selskapene som er mest dydige tar tid og penger til å gjøre dette arbeidet, noe som er bra for oss alle, men andre selskaper trenger ikke å gjøre det,”sa han til Time, og la til,”Det gir ikke mening.”Inglesby foreslo obligatoriske evalueringer for nye store språkmodeller før utgivelsen “For å sikre at den ikke vil produsere utfall på pandemisk nivå.”
AIs utvidende fotavtrykk i vitenskapelig forskning
VCT-resultatene er ikke et isolert integrer, men som er et stark datapunkt i et bredt et bredt landskap der det er et stort sett et stort sett et bredt vitenskapelig. Openai, skaperen av den topppresterende O3-modellen, var allerede kjent for å utforske biologiske applikasjoner; Winbuzzer rapporterte i januar om samarbeidet med retrobiosciences ved hjelp av en modell som heter GPT-4B-mikro for å optimalisere proteiner som er involvert i stamcellekreasjon.
På samme måte har Google DeepMind vært svært aktiv. Foruten Gemini-modellfamilien, forutsier det mye brukte Alphafold-programmet proteinstrukturer, mens et”AI-medforsker”-prosjekt, detaljert i februar, tar sikte på å generere nye vitenskapelige hypoteser, noen ganger speiling upublisert menneskelig forskning. Disse verktøyene, med fokus på proteiningeniør, generering av hypotese og molekylær simulering, illustrerer AIs ekspanderende rolle, og går utover dataanalyse mot kompleks vitenskapelig resonnement og prosessuell assistanse-forsterker både potensielle vitenskapelige gevinster og sikkerhetsutfordringene som Vct.