L’amministratore delegato di

​​Sam Altman ha segnalato una significativa ricalibrazione delle sue opinioni sulla regolamentazione dell’IA durante un’audizione del Comitato del Commercio del Senato l’8 maggio 2025.

Altman ha avvertito che imporre una rigorosa pre-approvazione del governo per il rilascio di potenti modelli di AI potrebbe rivelarsi”disastroso”per la leadership americana nel campo avanzato rapidamente. This position notably contrasts with his May 2023 testimony, where he had advocated for the creation of a new federal agency to license and test advanced AI, calling it his ‘number one’ recommendation for ensuring AI safety.

His current emphasis is on industry-led standards and a more restrained approach to government intervention, a stance that aligns with a broader shift in the tech sector and the prevailing sentiment within the Trump administration, which Supporta un framework regolatorio”leggero”per favorire l’innovazione e mantenere un vantaggio competitivo, in particolare contro la Cina.

While Altman now suggests that “I think standards can help increase the rate of innovation, but it’s important that the industry Scopri cosa dovrebbero essere per primi.”, Il dibattito continua se l’autoregolamentazione sarà sufficiente per affrontare le complesse sfide poste dall’intelligenza artificiale sempre più potente.

in udienza, Altman ha ulteriormente chiarito la sua posizione sul ruolo di corpi come il National Institute of Technology (NIST) nel stabilire standard di sviluppo AI, affermando, affermando, che non credo che non possano essere utili. [Contenuto incorporato]

Il più ampio contesto politico e industriale è sempre più incorniciando lo sviluppo dell’IA attraverso il prisma della concorrenza internazionale e della sicurezza nazionale. Il senatore Ted Cruz (R-TEXAS), presieduto dall’udienza, ha sottolineato questo affermando che gli Stati Uniti”non possono consentire la regolamentazione, anche il tipo apparentemente benigno, di soffocare l’innovazione e l’adozione”e ha annunciato l’intenzione di introdurre un disegno di legge creando una”sandbox regolatrice per l’IA”, secondo l’udito del Senato .

Questo sentimento era emetto dal vicepresidente Jd Vance in una vetta di Parigi , che ha dichiarato che la futura non è andata a mano. Questo approccio segna una partenza dalla strategia dell’amministrazione Biden, che includeva un ordine esecutivo che imponeva test di sicurezza AI, successivamente abrogato dal presidente Trump. Da allora l’amministrazione Trump ha rilasciato suggerito al post di Washington Post

Pressioni interne di Openai per quanto riguarda i suoi impegni di sicurezza sono emerse. Jan Leike, ex co-conduttore del team di superlignment di Openai, si è dimesso nel maggio 2024, affermando pubblicamente che”la cultura e i processi di sicurezza hanno preso un sedile posteriore a prodotti luccicanti”, come riportato da Winbuzzer. Ciò ha seguito lo scioglimento del team di Superalignment, che è stato istituito nel luglio 2023 per concentrarsi sui rischi di intelligenza artificiale a lungo termine. In risposta a queste dinamiche interne, Sam Altman ha riconosciuto nel maggio 2024 che Openai aveva”molto di più da fare”per la sicurezza.

Più recentemente, nell’aprile 2025, Openai ha aggiornato le sue linee guida per la sicurezza interna, introducendo una disposizione che potrebbe consentire alla società di adeguare i requisiti di sicurezza se un concorrente rilascia un sistema ad alto rischio senza salvasi comparabili. Questa mossa è arrivata poco dopo che è emerso i rapporti secondo cui Openai ha ridotto significativamente i tempi di test di sicurezza per i suoi nuovi modelli, come O3, da mesi a talvolta sotto una settimana, spingendo preoccupazioni da parte dei tester, uno dei quali ha descritto l’approccio come”sconsiderata”. Mentre Openai ha approcci tecnici dettagliati come”allineamento deliberativo”al ragionamento della sicurezza nei suoi modelli e ha dichiarato la sua ricerca sull’interpretazione della persuasione degli obiettivi a garantire che l’IA non diventa troppo efficace, come coperto dagli studi di persuasione dell’IA di Openi, le azioni della società, come le dimissioni di Altman del 20 settembre 2024 dalle dimissioni di Openi, sono state alimentate in difficoltà. L’ex personale di Openi ha persino accusato Altman di aver resistito a un’efficace regolamentazione dell’IA a favore delle politiche che servono gli interessi commerciali dell’azienda.

Anche altri laboratori di intelligenza artificiale stanno navigando su questo terreno complesso. Antropico, ad esempio, ha svelato un quadro di interpretazione nel marzo 2025 per rendere più trasparente il ragionamento di Claude AI, e ha anche presentato raccomandazioni alla Casa Bianca che esortava i test di sicurezza nazionale dei sistemi di intelligenza artificiale.

Tuttavia, la società ha anche ricordato alcune delle sue forze di sicurezza volontaria fatte sotto una precedente casa bianca iniziale. Ciò evidenzia le intricate aziende di Dance AI che si esibiscono tra sostegno di determinati tipi di governance e mantenimento della flessibilità operativa.

Il contesto più ampio include i rischi molto reali dimostrati dall’intelligenza artificiale, come un recente studio che mostra AI che ha sovraperformato gli esperti umani in difficoltà di virologia, sollevando le preoccupazioni a doppia utilizzo per i rischi bioweai. Inoltre, le nuove vulnerabilità di sicurezza negli strumenti di intelligenza artificiale ampiamente utilizzati, come il copilota di Microsoft per SharePoint, continuano a emergere, evidenziando i rischi immediati anche se le richieste di regolamentazione più leggera si intensificano.

Definizione del futuro di Ai Governance

Sam Altman prima che sia in grado di essere possibile di superhum. Superuman in General Intelligence”sembra particolarmente saliente poiché ora sostiene una maggiore libertà del settore. Il suo precedente appello a un’agenzia di licenze e test pre-release si attesta in netto contrasto con la sua attuale enfasi sull’evitare regolamenti che potrebbero”soffocare l’innovazione”.

questa evoluzione nella sua posizione pubblica si verifica anche come il governo degli Stati Uniti, sotto una nuova amministrazione, i firma di una nuova amandr, hanno una preferenza di Alems, che ha detenuto anche il fatto che le altrui i Leades di Ai di Ai, che hanno anche detenuto una preoccupazione di Alems, che ha una prima scala, che ha una prima scala, il che ha detenuto il Whag, che ha degne di essi, ha detenuto una preoccupazione per le altrimenti di ALEAVR, che ha una prima scala, che ha una prima scala, che ha una prima scala, che ha una prima scala, che ha detenuto un problema con la scala di ALEADS, che ha detenuto un problema con la scala di ALEDS. Supporto AI come”imperativo morale”.

Mentre Altman suggerisce che questioni complesse come la privacy rappresentano una”questa è un’area grigia… per voi [i legislatori] a cui pensare e prendere abbastanza sul serio.”Il suo messaggio generale, ora si appoggia a un salto di sicurezza del settore. Inserisci che”se c’è un negozio di panini dall’altra parte della strada da Openi o Antropic o da una delle altre aziende, prima di poter vendere anche un panino, devono soddisfare gli standard di sicurezza per la loro cucina. Se [le aziende di intelligenza artificiale] vogliono rilasciare Super Intelligence domani, sono libere di farlo.”

mentre si svolge l'”età dell’intelligence”, il compito critico di bilanciare l’innovazione con la sicurezza pubblica e definire i quadri di governance per l’IA sempre più potente, rimarrà indubbiamente al primo piano.