OpenAI: s VD Sam Altman har signalerat en betydande kalibrering av sina åsikter om AI-förordningen under en senathandelsutskott som hör den 8 maj 2025.

Altman varnade för att imponerande regeringsförhandsgodkännande för frisläppande av mäktiga AI-modeller kan visa sig vara “katastrofala” för America: s ledarskap i det snabbt framstegande området. This position notably contrasts with his May 2023 testimony, where he had advocated for the creation of a new federal agency to license and test advanced AI, calling it his ‘number one’ recommendation for ensuring AI safety.

His current emphasis is on industry-led standards and a more restrained approach to government intervention, a stance that aligns with a broader shift in the tech sector and the prevailing sentiment within the Trump administration, which Förespråkare för en”lätt-beröring”regelverk för att främja innovation och upprätthålla en konkurrensfördel, särskilt mot Kina.

Vid förhandlingen, Altman klargjorde ytterligare sin position på rollen som organ som National Institute of Standards and Technology (NIST) för att sätta AI-modellutvecklingsstandarder, säger,”Jag anser att vi inte kan vara det. [Inbäddat innehåll]

Det bredare politiska och branschsammanhanget inramar AI-utvecklingen genom priset för internationell konkurrens och nationell säkerhet. Senator Ted Cruz (R-Texas), chairing the hearing, underscored this by stating the U.S. “cannot allow regulation, even the supposedly benign kind, to choke innovation and adoption”and announced plans to introduce a bill creating a ‘regulatory sandbox for AI,’ according to Senatens hörsel .

Detta sentiment var echoed av vice president JD Vance på en paris toppning , Who Declared det”är det inte att göra det av vice president. Detta tillvägagångssätt markerar en avvikelse från Biden-administrationens strategi, som inkluderade en verkställande order som krävde AI-säkerhetstester, senare upphävda av president Trump. The Trump administration has since issued new guidance aiming to remove bureaucratic restrictions and promote American AI dominance, as Detaljerad av Wilmerhale.

AI industrin navigerar navigerar ett skiftande regleringslandskap

Sam Altmans uppmaning till industrin att ta ledningen i att definiera AI-standarder, medan han medgav att “nej, jag tycker att någon politik är bra, men jag tycker att det är lätt för det att gå långt. Han beskrev specifikt Europeiska unionens omfattande EU AI-lag som”katastrofala.”

Denna åsikt resonerar med andra tekniska chefer, inklusive Microsofts president Brad Smith, som, trots tidigare kräver en dedikerad federal AI-byrå, nu stöder en”lätt beröring”-ram. Den utvecklande ståndpunkten återspeglas också i politiska förändringar vid stora AI-laboratorier; Googles DeepMind, till exempel, skrotade ett långvarigt löfte i februari 2025 mot att utveckla AI för vapen eller övervakning, och OpenAI, Meta och Anthropic har på liknande sätt uppdaterat sin politik angående militära projekt.

Men detta drivande för minskade regeringsövervakningar. Rumman Chowdhury, en före detta Science Department Science-sändebud för AI, föreslog till Washington post som den tidigare fokus och tech-industrin och den tidigare fokuserade och en rund-rest som är en”bifict som en”BEI-BED AT ATA en”en”en”BEDIK”Switch,”Avledande fokus från omedelbara skador och utnyttjande av nationella säkerhetsproblem till Robust Regulation. Jan Leike, före detta co-lead of Openais superjusteringsteam, avgick i maj 2024 och uppgav offentligt att”säkerhetskultur och processer har tagit en baksäte till glänsande produkter”, som Winbuzzer rapporterade. Detta följde upplösningen av superjusteringsteamet, som grundades i juli 2023 för att fokusera på långsiktiga AI-risker. Som svar på denna interna dynamik erkände Sam Altman i maj 2024 att OpenAI hade”mycket mer att göra”angående säkerhet.

Senare, i april 2025, uppdaterade OpenAI sina interna säkerhetsriktlinjer och introducerade en bestämmelse som kan tillåta företaget att anpassa sina säkerhetskrav om en konkurrent släpper ett hög risk-system utan jämförelse. Denna rörelse kom kort efter att rapporter framkom att OpenAI hade minskat säkerhetstestningstider avsevärt för sina nya modeller, som O3, från månader till ibland under en vecka, vilket fick oro från testare, varav en beskrev tillvägagångssättet som”Reckless”. utmaning. Medan OpenAI har detaljerade tekniska tillvägagångssätt som”avsiktlig anpassning”för att bädda in säkerhetsresonemang i sina modeller och har uttalat sin forskning om AI-övertalning syftar till att säkerställa att AI inte blir för effektiv, som omfattas av OpenAI: s AI-övertalning, företagets åtgärder, till exempel Altmans september 2024 Återskrivning från OpenAI: s säkerhet och säkerhetsstyrelse, har bränsle. Tidigare OpenAI-personal har till och med anklagat Altman för att motstå effektiv AI-reglering till förmån för policyer som tjänar företagets affärsintressen.

Andra AI-laboratorier navigerar också denna komplexa terräng. Anthropic avslöjade till exempel en tolkningsram i mars 2025 för att göra sin Claude AI: s resonemang mer transparent och lämnade också rekommendationer till Vita huset och uppmanade nationell säkerhetstest av AI-system. Detta belyser de komplicerade dans AI-företagen utför mellan att förespråka för vissa typer av styrning och upprätthålla operativ flexibilitet.

Det bredare sammanhanget inkluderar de verkliga riskerna som visas av AI, till exempel en ny studie som visar AI-överträffande mänskliga experter inom felsökning av virrologi, och väcker problem med dubbla användningsområden för BIOWOON-risker. Furthermore, new security vulnerabilities in widely used AI tools, like Microsoft’s Copilot for SharePoint, continue to emerge, highlighting immediate risks even as calls for lighter regulation intensify.

Defining the Future of AI Governance

Sam Altman’s 2023 warning that AI might be “capable of superhuman persuasion well before it is Superhuman vid General Intelligence”verkar särskilt framträdande eftersom han nu förespråkar för mer branschfrihet. His previous call for a licensing agency and pre-release testing stands in stark contrast to his current emphasis on avoiding regulations that could ‘choke innovation.’

This evolution in his public stance occurs as the U.S. government itself, under a new administration, signals a preference for accelerating AI development to compete globally, particularly with China, a concern also voiced by other tech leaders like Scale AI’s Alexandr Wang, who has described military AI-stöd som ett”moraliskt imperativ.”

Medan Altman föreslår att komplexa frågor som integritet representerar ett”detta är ett grått område… för er [lagstiftare] att tänka på och ta ganska allvarligt.”, Hans övergripande budskap nu lutar sig mot industrin självbestämmande när det gäller att sätta säkerhetsstandarderna.

max marknaden för livets livslängd lutar sig till industrin, som inte är belysande för att sätta säkerhetsstandarder. Washington Post att “Om det finns en smörgåsbutik tvärs över gatan från OpenAI eller Anthropic eller ett av de andra företagen, innan de kan sälja till och med en smörgås måste de uppfylla säkerhetsstandarderna för sitt kök. Om [AI-företagen] vill släppa Super Intelligence imorgon är de fria att göra det.”

När”intelligensåldern”utvecklas, kommer den kritiska uppgiften att balansera innovation med allmän säkerhet och definiera regeringsramarna för alltmer kraftfulla AI, kommer utan tvekan att förbli i framkanten av den globala diskursen.

Categories: IT Info