AI Sikkerhetsleder Anthropic er proposin et nytt politikkramme Målet til å øke transparensen i utviklingen av å utvikle”en ny politisk ramme. Forslaget krever at store AI-selskaper skal offentliggjøre sikkerhetsprotokollene sine gjennom et”sikkert utviklingsrammeverk”og detaljerte”systemkort.”
Dette trekket kommer når AI-bransjen står overfor økende kontroll over en serie sikkerhetssvikt, sikkerhetsfeil og etiske bekymringer. Anthropics”lett berøring”-tilnærming søker å bygge offentlig tillit og ansvarlighet ved å standardisere sikkerhetsrapportering. Det tilbyr et fleksibelt alternativ til stiv myndighetsregulering mens den tar tak i det presserende behovet for tilsyn.
Secure Development Framework forklart
I kjernen krever forslaget utviklere av de mest dyktige modellene for å lage og publisere a sikker utvikling Framework (SDF) . Dette dokumentet vil skissere hvordan et selskap vurderer og reduserer urimelige katastrofale risikoer før de distribuerer en ny modell.
Ved siden av SDF ville selskaper publisere”System Cards”eller lignende dokumenter. Disse vil oppsummere modelltestingsprosedyrer, evalueringsresultater og eventuelle nødvendige avbøtninger. Dette skaper en offentlig oversikt over modellens evner og begrensninger på tidspunktet for utgivelsen.
Standardisering av en frivillig pakt midt i regulatoriske debatter
Antropics forslag unngår bevisst å være altfor forskrivende. Selskapet argumenterer for at”stive regjeringspålagte standarder vil være spesielt kontraproduktive gitt at evalueringsmetoder blir utdatert i løpet av måneder på grunn av tempoet i teknologisk endring,”et nikk til det raske innovasjonstakten som kan gjøre spesifikke tekniske regler foreldet nesten umiddelbart.
politikken er smalt scoped for å anvende bare for de største utviklerne. Antropisk antyder at terskler som 100 millioner dollar i årlige omsetninger eller 1 milliard dollar i FoU-utgifter for å unngå å belaste oppstarter. Det inkluderer også bestemmelser for varslere beskyttelse, noe som gjør det ulovlig for et laboratorium å lyve om dets etterlevelse.
Denne tilnærmingen søker effektivt å kodifisere og standardisere det som for øyeblikket er frivillige sikkerhetsforpliktelser fra store laboratorier. Selskaper som Google DeepMind, openai , og