Openai-administrerende direktør Sam Altman har signalisert en betydelig rekalibrering av sine synspunkter på AI-regulering under en høring av Senatets handelsutvalg 8. mai 2025.
Altman advarte om at det å imponere strenge regjeringsforsikring for utgivelsen av mektige AI-modeller kan vise seg å være”katastrofe”for America’s Leadership i det raskt fremgang. Denne stillingen står spesielt i kontrast til hans vitnesbyrd i mai 2023, der han hadde tatt til orde for opprettelsen av et nytt føderalt byrå for å lisensiere og teste Advanced AI, og kalte det hans’nummer én’anbefaling for å sikre AI-sikkerhet.
Hans nåværende vektlegging er på bransjet standarder og en mer behersket tilnærming til regjeringsinterventivet, en holdning som ANDAGER med en bredt forskyvning og en mer behersket tilnærming til regjeringens intervensjon, en holdning som ANDAGER for et bredt forskyvning og en mer behersket tilnærming til regjeringens intervensjon, som en holdning som er i en bredere måte og en mer holdning til en mer behersket tilnærming til regjeringens intervensjon, er en holdning til å være en mer tilbakeholdende tilnærming til å få en mer behersket tilnærming til regjeringsintervensjonen. ‘Lys-touch’ regulatoriske rammer for å fremme innovasjon og opprettholde et konkurransefortrinn, spesielt mot Kina.
Ved høringen avklarte Altman sin stilling til rollen som organer som National Institute for bransje og teknologi (NIST) i å sette AI-modellen, si fra det nasjonale instituttet. [innebygd innhold]
Den bredere politiske og industrikonteksten innrammer i økende grad AI-utvikling gjennom prisme av internasjonal konkurranse og nasjonal sikkerhet. Senator Ted Cruz (R-Texas), som ledet av høringen, understreket dette ved å oppgi USA”kan ikke tillate regulering, selv den antatt godartede typen, til å kvele innovasjon og adopsjon”og kunngjorde planer om å innføre et lovforslag som skaper en ‘regulatorisk sandkasse for AI,” i henhold til
AI industrien navigerer i et skiftende regulatorisk landskap
Sam Altmans oppfordring til at bransjen skulle ta ledelsen i å definere AI-standarder. Han beskrev spesifikt EUs omfattende EU AI som”katastrofalt.”
Dette synet resonerer med andre teknologiledere, inkludert Microsoft-president Brad Smith, som, til tross for tidligere oppfordringer til et dedikert føderalt AI-byrå, nå støtter et”lett berøring”-ramme. Den utviklende holdningen gjenspeiles også i politiske endringer ved store AI-laboratorier; Googles DeepMind, for eksempel, skrotet et langvarig løfte i februar 2025 mot å utvikle AI for våpen eller overvåking, og Openai, Meta og Anthropic har imidlertid på samme måte oppdatert sin politikk angående militære prosjekter.
Dette presset for redusert regjeringsoversikt overfor militære prosjekter. Rumman Chowdhury, en tidligere vitenskapsutsending av utenriksdepartementet for AI, antydet til Washington Post
Internt press på Openai angående sikkerhetsforpliktelsene har også dukket opp. Jan Leike, tidligere medleder for Openais Superalignment-team, trakk seg i mai 2024, og uttalte offentlig at”sikkerhetskultur og prosesser har tatt baksetet til skinnende produkter”, som Winbuzzer rapporterte. Dette fulgte oppløsningen av Superalignment-teamet, som ble opprettet i juli 2023 for å fokusere på langsiktige AI-risikoer. Som svar på denne interne dynamikken, erkjente Sam Altman i mai 2024 at Openai hadde”mye mer å gjøre”angående sikkerhet.
Nylig, i april 2025, oppdaterte Openai sine interne sikkerhetsretningslinjer, og innførte en bestemmelse som kan tillate selskapet å justere sikkerhetskravene hvis en konkurranse frigjør en høy risikosystem uten sammenlignbare safegueguegner. Dette trekket kom kort tid etter at rapporter dukket opp om at Openai hadde redusert sikkerhetstestingstider betydelig for sine nye modeller, som O3, fra måneder til noen ganger under en uke, noe som fikk bekymring fra testere, hvorav den ene beskrev tilnærmingen som”Reckless,”. /Strong> Balancing innovasjon, sikkerhet og offentlig tillit
Andre AI-laboratorier navigerer også i dette komplekse terrenget. Antropisk avduket for eksempel et rammeverk for tolkbarhet i mars 2025 for å gjøre Claude AIs resonnement mer gjennomsiktig, og sendte også inn anbefalinger til Det hvite hus og oppfordret til nasjonal sikkerhetstesting av AI-systemer.
Imidlertid har selskapet også fjernet noen av sine frivillige sikkerhetsproblemer som ble gjort under et tidligere White House-initiativ. Dette fremhever de intrikate dans-AI-selskapene som presterer mellom å gå inn for visse typer styring og opprettholde operativ fleksibilitet.
Den bredere konteksten inkluderer de veldig virkelige risikoer som AI viser, for eksempel en fersk studie som viser AI-utkonkurrerer menneskelige eksperter i virologilaboratoriet. Videre fortsetter nye sikkerhetssårbarheter i mye AI-verktøy, som Microsofts Copilot for SharePoint, å dukke opp, og fremhever umiddelbare risikoer, selv om oppfordring til lettere regulering intensiveres.
Definisjon av fremtiden til AI-styring
Sam-ALTMANS 2023 Overmenneskelig ved generell intelligens”virker spesielt fremtredende ettersom han nå tar til orde for mer bransjefrihet. Hans forrige oppfordring til et lisensbyrå og testing før utgivelse står i sterk kontrast til hans nåværende vektlegging av å unngå forskrifter som kan”kvele innovasjon.”
Denne utviklingen i hans offentlige holdning oppstår som den amerikanske regjeringen selv, under en ny administrasjon, som også har en preferanse for å akselerere AI-utviklingen som en ny administrasjon, som en ny administrasjon, som en anerkjennelse for å få en ny administrasjon, og som en ny administrasjon, som har en ny administrasjon. beskrev militær AI-støtte som et”moralsk imperativ.”
Mens Altman antyder at komplekse problemer som personvern representerer et”dette er et grått område… for deg [lovgivere] å tenke på og ta ganske alvorlig.”, Hans overordnede budskap som nå er å gjøre det mulig å gjøre en viktig måte. Ved å merke til Washington Post at “Hvis det er en sandwichbutikk over gaten fra Openai eller Anthropic eller et av de andre selskapene, før de kan selge til og med en sandwich, må de oppfylle sikkerhetsstandardene for kjøkkenet. Hvis [AI-selskapene] ønsker å frigjøre superintelligens i morgen, står de fritt til det.”
Når‘ etterretningsalderen ’utspiller seg, vil den kritiske oppgaven med å balansere innovasjon med offentlig sikkerhet og definere styringsrammer for stadig kraftigere AI, utvilsomt forbli i forkant av global diskurs.