Openai CEO Sam Altman heeft een significante hercalibratie van zijn opvattingen over AI-verordening aangegeven tijdens een hoorzitting van een Senaatshandelcomité op 8 mei 2025.

Altman waarschuwde dat het opleggen van strikte overheid voor goedkeuring voor de release van krachtige AI-modellen”rampzo’s”voor Amerika leiderschap in het leiderschap van het leiderschap in het leiderschap in het leiderschap in het leiderschap in het leiderschap in het leidinggevende veld zou kunnen bewijzen. Deze positie staat met name in contrast met zijn getuigenis van mei 2023, waar hij had gepleit voor de oprichting van een nieuw federaal agentschap om geavanceerde AI te licentiëren en te testen, en noemt het zijn ‘nummer één’ aanbeveling voor het waarborgen van AI-veiligheid.

zijn huidige nadruk in de industrie en een groter benadering van de overheidsinterventie, wat een bredere toediening van de tech-administratie is, Advocaten voor een ‘licht-touch’ regelgevend framework om innovatie te bevorderen en een concurrentievoordeel te behouden, vooral tegen China.

Tijdens de hoorzitting heeft Altman verder zijn positie over de rol van organen zoals het National Institute of Standards and Technology (NIST) in het instellen van AI Model Developing Standards. [Embedded Inhoud]

De bredere politieke en industriële context frameert in toenemende mate AI-ontwikkeling door het prisma van internationale concurrentie en nationale veiligheid. Senator Ted Cruz (R-TEXAS), voorzitter van de hoorzitting, onderstreepte dit door te zeggen dat de VS”geen regelgeving, zelfs de zogenaamd goedaardige soort, niet toestaat om innovatie en adoptie te stikken”en kondigde plannen aan om een ​​wetsvoorstel te introduceren om een ​​‘regelgevende sandbox voor AI te creëren,’ volgens De hoorzitting van de senaat .

Dit sentiment was echoënd door vice-president jd vance op een Parijs , die verklaarde dat”de ai-toekomst niet wordt gewonnen door handwinst te maken. Deze aanpak markeert een afwijking van de strategie van de Biden-administratie, die een executive order omvatte die AI-veiligheidstests verplicht, later ingetrokken door president Trump. The Trump administration has since issued new guidance aiming to remove bureaucratic restrictions and promote American AI dominance, zoals gedetailleerd door Wilmerhale.

De AI industrie navigeert een verschuivend regelgevend landschap

Sam Altman’s oproep voor de industrie om het voortouw te nemen bij het definiëren van AI-normen, terwijl hij toegeeft dat”nee, ik denk dat een beleid goed is, maar ik denk dat het gemakkelijk is om te gaan.”, was een centrale thema van zijn recente getuigenis. Hij beschreef specifiek de uitgebreide EU AI-wet van de Europese Unie als”rampzalig.”De evoluerende houding wordt ook weerspiegeld in beleidswijzigingen bij grote AI Labs; De DeepMind van Google heeft bijvoorbeeld in februari 2025 een langdurige belofte geschrapt tegen het ontwikkelen van AI voor wapens of bewaking, en Openai, Meta en Anthropic hebben hun beleid met betrekking tot militaire projecten op dezelfde manier bijgewerkt.

, deze drang naar verminderde overheidsoverheidsgezichten. Rumman Chowdhury, een voormalige wetenschapsgezant voor het ministerie van Buitenlandse Zaken voor AI, suggereerde de Washington Post dat de washington post dat de washington post dat de tech-industrie eerder focus op de tech-industrie focus op de tech-industrie die eerder is geoefend op de tech-industrie. Switch,”Focus afleiden van onmiddellijke schade en het benutten van nationale veiligheidsproblemen om de robuuste regelgeving te omzeilen.

Interne druk bij OpenAI met betrekking tot de veiligheid van de veiligheid is ook opgedoken. Jan Leike, voormalig co-lead van het Superalignment-team van Openai, nam in mei 2024 ontslag en verklaarde publiekelijk dat”veiligheidscultuur en processen een achterbank hebben genomen voor glanzende producten”, zoals Winbuzzer meldde. Dit volgde op de ontbinding van het Superalignment-team, dat in juli 2023 werd opgericht om zich te concentreren op AI-risico’s op lange termijn. In reactie op deze interne dynamiek erkende Sam Altman in mei 2024 dat Openai”veel meer te doen had”met betrekking tot veiligheid.

Meer recent, in april 2025, heeft OpenAI de interne veiligheidsrichtlijnen bijgewerkt, waarbij een bepaling zou kunnen worden aangepast die het bedrijf in staat zou stellen de veiligheidseisen aan te passen als een concurrent een hoog risico-systeem zonder vergelijkbare beveiligingssysteem vrijmaakt. Deze stap kwam kort nadat rapporten tevoorschijn kwamen dat Openai de veiligheidstijden van de veiligheid aanzienlijk had verminderd voor zijn nieuwe modellen, zoals O3, van maanden tot soms minder dan een week, wat zorgde voor zorgen van testers, waarvan een de aanpak beschreef als”roekeloos”. uitdaging. Terwijl Openai gedetailleerde technische benaderingen heeft, zoals ‘overleg afstemming’ om veiligheidsredenen in zijn modellen in te bedden, en zijn onderzoek heeft verklaard naar AI-overtuiging als doel AI niet te effectief te worden, zoals behandeld in de AI-verstandelijke studies van Openai, hebben de acties van het bedrijf, zoals Altman’s september 2024 afwijzing van Openai’s Safety and Board, heeft aangewakkerde debat. Voormalig Openai-personeel heeft Altman zelfs beschuldigd van het weerstaan ​​van effectieve AI-verordening ten gunste van beleid dat de zakelijke belangen van het bedrijf dient.

Andere AI-laboratoria navigeren ook door dit complexe terrein. Anthropisch onthulde bijvoorbeeld een interpreteerbaarheidskader in maart 2025 om de redenering van zijn Claude AI transparanter te maken en heeft ook aanbevelingen gedaan aan het Witte Huis waarin de nationale veiligheidstests van AI-systemen werden aangedrongen. Dit benadrukt de ingewikkelde dans-AI-bedrijven tussen het bepleiten voor bepaalde soorten governance en het handhaven van operationele flexibiliteit.

De bredere context omvat de zeer reële risico’s die door AI worden aangetoond, zoals een recente studie die AI aantoont dat het beter maakt Bovendien blijven nieuwe beveiligingskwetsbaarheden in veelgebruikte AI-tools, zoals Microsoft’s Copilot voor SharePoint, ontstaan, wat onmiddellijke risico’s benadrukt, zelfs als oproepen tot lichtere regulering intensiveren.

Definitie van de toekomst van AI Governance

Sam Altman’s 2023 War War War War War War War War War War War War War War War War War War War War War War War War War War War War van Superhum. Bovenmenselijk bij algemene inlichtingen”lijkt bijzonder opvallend omdat hij nu pleit voor meer vrijheid in de industrie. Zijn vorige oproep voor een licentiebureau en het testen van pre-release staat in schril contrast met zijn huidige nadruk op het vermijden van voorschriften die ‘innovatie kunnen stikken.’

Deze evolutie in zijn publieke standpunt vindt plaats als de Amerikaanse overheid zelf, onder een nieuwe administratie, onder een nieuwe administratie, met name het Alex van de Alex. AI-ondersteuning als een”morele imperatief.”

Terwijl Altman suggereert dat complexe kwesties als privacy een”dit is een grijs gebied… voor u [wetgevers] om na te denken en vrij serieus te nemen.”, Zijn overkoepelende boodschap neigt nu naar het instellen van veiligheidsstandaard. Plaats dat”als er een broodjeswinkel aan de overkant van Openai of Anthropic of een van de andere bedrijven is, voordat ze zelfs één sandwich kunnen verkopen, moeten ze voldoen aan de veiligheidsnormen voor hun keuken. Als [de AI-bedrijven] morgen Super Intelligence willen vrijgeven, zijn ze vrij om dit te doen.”

als de‘ Intelligence Age ’ontvouwt zich, de cruciale taak om innovatie in evenwicht te brengen met openbare veiligheid en het definiëren van de bestuurskaders voor steeds krachtiger AI, zal ongetwijfeld in de voorgrond blijven van het wereldwijde discours.

Categories: IT Info