Le dinamiche competitive all’interno del campo di intelligenza artificiale sembrano ora influenzare direttamente lo sviluppo delle politiche di sicurezza ad Openi. La società dietro CHATGPT è solo aggiornato le sue linee guida di sicurezza interne , introducendo una disposizione notevole: Openi può modificare i propri requisiti di sicurezza se un laboratorio di AI rivale rilasci un sistema di sicurezza”senza rischi di protezione”. Questa revisione alle sue superfici del quadro di preparazione come la società, ora valutata a $ 300 miliardi a seguito di un importante round di investimento guidato da SoftBank, naviga con una concorrenza di mercato intensa e un crescente controllo sulle sue procedure di valutazione per i modelli AI avanzati, come i prossimi Serie O3.
Il framework aggiornato, il primo revisionato in dettaglio da quando 2023, come le offerte di O3. Stabilisce specifiche”categorie monitorate”per il monitoraggio di rischi noti come l’uso improprio in biologia, chimica e sicurezza informatica, insieme a”categorie di ricerca”lungimiranti che esplorano aree come l’autonomia a lungo raggio e la replica autonoma e la replica autonoma e la sicurezza di sicurezza. Tuttavia, il cambiamento più che attira l’attenzione è la clausola che affronta direttamente l’ambiente competitivo. L’annuncio di Openai recita:”Se un altro sviluppatore di AI di frontiera rilascia un sistema ad alto rischio senza garanzie comparabili, potremmo regolare i nostri requisiti.”
Un clima di accelerazione e controllo
La regolazione delle politiche non è stata effettuata in isolamento. È arrivato pochi giorni dopo che sono emersi i rapporti, sostenendo che Openai aveva significativamente compresso il tempo assegnato per i test di sicurezza sui prossimi modelli come O3. Più fonti che hanno familiarità con le operazioni hanno rivendicato i periodi di valutazione si sono ridotti da mesi a talvolta sotto una settimana, presumibilmente guidati dalla necessità di tenere il passo con concorrenti come Google, Meta e Xai.
Questa accelerazione ha riferito di aver causato disagio tra alcuni tester coinvolti. Una fonte che lavora sulla valutazione O3 ha detto all’FT che l’approccio sembrava”sconsiderato”, elaborando”, ma poiché c’è più richiesta per questo, lo vogliono più velocemente. Spero che non sia un cassa catastrofico errata, ma è sconsiderato. Questa è una ricetta per il disastro.”Un altro che ha partecipato alla valutazione di sei mesi più lunga per GPT-4 nel 2023, secondo quanto riferito, ha dichiarato:”Non stanno affatto dando la priorità alla sicurezza pubblica”. Anche le metodologie di test specifiche specifiche sono state colpite. Sono state sollevate preoccupazioni per quanto riguarda le valutazioni di messa a punto: una tecnica utilizzata per sondare le pericolose capacità emergenti di formazione su modelli di dati specializzati (come la virologia). I critici, tra cui l’ex ricercatore di sicurezza Openi, Steven Adler, hanno sottolineato una mancanza di risultati di messa a punto pubblicati per i modelli più recenti e più capaci dell’azienda come O1 o O3-Mini.
Adler, suggeriti ai tempi finanziari che”non fare tali test potrebbero significare tali test potrebbero essere aperti e le altre società dell’AI stanno sottostimando i peggiori rischi dei loro modelli”. È stata anche messa in discussione la pratica di valutare le versioni del modello intermedio o”checkpoint”, invece del codice finale rilasciato.”È una cattiva pratica rilasciare un modello diverso da quello che hai valutato”, ha commentato un ex membro del personale tecnico di Openi a FT. Difendere il processo dell’azienda, il capo dei sistemi di sicurezza di Openi, Johannes Heidecke, ha affermato la pubblicazione:”Abbiamo un buon equilibrio di quanto velocemente ci muoviamo e quanto siamo accurati,”attribuire l’efficienza agli sforzi di automazione e affermare che i checkpoint testati>
pur consentendo potenzialmente più margine di manovra nelle procedure di sicurezza interna attraverso la nuova clausola del framework, Openi sta esplorando simultaneamente esplorando contemporaneamente controlli più rigorosi su chi può accedere alla sua tecnologia più avanzata. Come abbiamo riportato intorno al 14 aprile, la società è considerando un processo di”organizzazione verificata”. Ciò potrebbe richiedere alle organizzazioni in cerca di accesso API a modelli futuri come O3 o il GPT-4.1 previsto per verificare la loro identità utilizzando ID emessi dal governo. Openai ha suggerito che questo mira a contrastare l’abuso da parte di una”piccola minoranza”, ma la proposta ha suscitato preoccupazioni da parte degli sviluppatori in merito a un aumento dell’attrito, della privacy dei dati e della potenziale esclusione, in particolare per coloro che sono al di fuori di elenco di apeai di paesi api di sostegno a api di supporto . > Pressioni del settore e dinamiche interne
Le enormi aspettative finanziarie che circondano Openi, consolidate dalla sua valutazione di $ 300 miliardi riportate il 1 aprile, formano una parte significativa del contesto competitivo. Questa valutazione è derivata da un’offerta di offerta che consente agli addetti ai lavori di vendere azioni, piuttosto che un afflusso di nuovi capitali operativi, potenzialmente amplificando la pressione per fornire rapidamente prodotti commercialmente praticabili. I sostanziali investimenti della società in infrastrutture di calcolo, evidenziati da un accordo da 11,9 miliardi di dollari con Coreweave e la partecipazione al progetto stargate multiplandese, evidenziano ulteriormente la scala e il costo dell’operazione presso l’IA Frontier.
INTERNIZZAZIONE PER IL DEGLI INFORMAZIONI DELLA PRESENTAZIONE DELLA SICUREZZA VEVENUTA Non sono nuove per l’organizzazione. La partenza di Jan Leike, ex co-lead del team di Seralignment, incentrato sui rischi a lungo termine, nel maggio 2024 è stata contrassegnata dalla sua dichiarazione pubblica secondo cui”la cultura e i processi di sicurezza hanno preso un sedile posteriore a prodotti brillanti”.
La sua successiva mossa per il concorrente antropico non ha segnato queste tensioni. Più recentemente, aggiungendo alla prospettiva interna, un gruppo di ex impiegati di Openi ha presentato un brief di amicus l’11 aprile 2025, a sostegno della causa in corso di Elon Musk contro la società. Il brief sostiene che lo spostamento di Openi verso una struttura a profitto con copertura potrebbe compromettere i suoi impegni di sicurezza originali.
L’aggiornamento del framework di Openai, in particolare il suo potenziale per regolare gli standard in base al comportamento della concorrenza, è in contrasto con i recenti annunci di alcuni rivali. Google DeepMind ha proposto un framework di sicurezza AGI globale il 3 aprile, chiedendo la cooperazione internazionale. Antropico, nel frattempo, ha pubblicizzato gli sforzi di sicurezza tecnica come il suo quadro di interpretazione, sebbene la società abbia anche affrontato un controllo per la rimozione di alcuni precedenti impegni volontari di sicurezza. Poiché i quadri normativi come l’UE Ai Act iniziano a esercitare influenza, l’approccio rivisto di Openi introduce una nuova variabile nel modo in cui i principali laboratori potrebbero gestire i rischi di intelligenza artificiale in un’arena sempre più competitiva.