Anthropic har levert et detaljert sett med AI-politiske anbefalinger til Det hvite hus Office of Science and Technology Policy (OSTP), og ber om forbedret regjeringstilsyn i kunstig intelligensutvikling.
selskapet advarer som avanserte ANI-Systems SurpaSpass i nøkkel. Intervensjon, USA er kanskje ikke forberedt på de økonomiske og sikkerhetsutfordringene slik teknologi bringer.
Imidlertid, ettersom det oppfordrer føderale regulatorer til å ta en mer aktiv rolle i AI-styring, har antropisk rolig fjernet flere AI-politiske forpliktelser det gjorde under Biden-administrasjonen, og reiser spørsmål om den src=”https://winbuzzer.com/wp-content/uploads/2024/12/antropic-ai-safety.jpg”>
antropics AI-regulering, og National Security Focus
The New Policy Anbefalingene som er avsatt til National Security Focus
den nye policyen som er avsatt til National Security Focus Anthropics Ai Regulations, som er National, til National Security Focus. Halvledereksportbegrensninger, og sikre at AI-forskningslaboratorier har sikre kommunikasjonskanaler med etterretningsbyråer.
Antropisk foreslår også en storskala utvidelse av den amerikanske kraftnettet, og estimerer at A Accoarters vil kreve en ekstra 50 gigawatt av energiinfrastrukturen i den nærmeste fremtiden.
p> byråer for å modernisere økonomiske datainnsamlingsmetoder for bedre å måle AI-drevne forstyrrelser i arbeidsmarkedet.
Antropisk har innrammet forslaget som et svar på de raske fremskrittene i AI-evner. Selskapet advarer om at AI-systemer utvikler seg med en enestående hastighet, med modeller som er i stand til å overgå menneskelige eksperter på områder som programvareutvikling, beslutningstaking og forskning.
Dette argumentet er forsterket av nyere ANI-ytelsesrate, som viser at ANTE 49. bredere cybersikkerhetstrusler som AI misbruk utgjør. En fersk Microsoft-rapport fant at AI-drevne cyberattacks har økt til over 600 millioner hendelser per dag, med statsstøttede hackinggrupper fra Russland, Kina og Iran utnyttet AI for stadig mer sofistikerte angrep. > Antropisk fjerner rolig AI-forpliktelser til Biden-epo Initiativ.
Forpliktelsene, som fokuserte på ansvarlig AI-skalering og risikoredusering, ble rolig fjernet fra Anthropics nettsted uten offentlig forklaring.
Tidspunktet for denne politiske reverseringen er bemerkelsesverdig, da det kommer akkurat som selskapet presser på sterkere regjeringsinngrep i AI-styring. Dette trekket har vekket spekulasjoner om hvorvidt antropisk omplasserer seg strategisk som svar på regulatoriske endringer eller skiftende industridynamikk.
Mens selskapet ikke har kommentert fjerning offentlig, vekker endringen bekymring for nivået av transparens for å ha en sterk> Handling
Anthropics siste politiske push følger sin sterke advarsel i november 2024, da den oppfordret globale regulatorer til å handle innen 18 måneder eller risikere å miste kontrollen over AI-utvikling. Tilsyn.
Hastigheten i denne oppfordringen til handling ble forsterket av bekymring for AI-aktiverte cybertrusler, som har eskalert parallelt med fremskritt i AI-ytelse.
Sikkerhetsforskere har advart om at AI-drevne phishing-angrep og automatisert skadelig programvare for å gjøre tradisjonelle sikkerhetssystemer økende i økende synlig sårbar. Etter hvert som AI-modeller blir mer avanserte, utgjør deres evne til å generere realistiske dypfakes og manipulere digitalt innhold ytterligere risikoer for informasjonsintegritet.
bedriftsinnflytelse og rollen som Big Tech i AI-regulering
anthropics utvikling. Storbritannias konkurranse-og markedsmyndighet har startet en undersøkelse av Googles investering på 2 milliarder dollar i antropikk, og vurdert om partnerskapet kan redusere konkurransen i AI-sektoren.
Når Det hvite hus vurderer antropisk anbefalinger, fortsetter den bredere samtalen rundt AI-regulering å utvikle seg. Selskaper som Anthropic, Openai og Google former aktivt fortellingen, men regjeringsinngrep vil avgjøre om frivillige forpliktelser fortsatt er en levedyktig reguleringsstrategi eller om strengere regler vil bli håndhevet.
Gitt den økende innflytelsen fra disse teknologiske gigantene, vil utfallet ha betydelig innvirkning på hvordan AI-industrien er styrt og om nasjonal sikkerhet og etisk bekymring er betydelig.