Konkurransedyktig dynamikk innen det kunstige intelligensfeltet ser nå ut til å påvirke utviklingspolitikkutviklingen direkte på Openai. Selskapet bak chatgpt bare Oppdaterte sine interne sikkerhetsretningslinjer , og introduserer en bemerkelsesverdig bestemmelse: Åpent kan endre sine egne sikkerhetskrav”hvis et rival. Denne revisjonen av sine beredskapsrammer overflater som selskapet, nå verdsatt til 300 milliarder dollar etter en stor softbank-ledet investeringsrunde, navigerer intens markedskonkurranse og økende kontroll over evalueringsprosedyrene for avanserte AI-modeller, som den kommende Potenty-serien.
The Updated Framew, The First Revision Publical Contexalforsed Contexalforsed. Skader. Den etablerer spesifikke ‘sporede kategorier’ for å overvåke kjente risikoer som misbruk i biologi, kjemi og cybersecurity, sammen med fremtidsrettede ‘forskningskategorier’ som utforsker områder som langdistanse autonomi og autonom replikasjon.
The Internal Group Defines også definerer ‘High’ og ‘kritisk’ kapasitet Terskel som trigger spesifikk sikkerhetsgjennomgang og definerer ‘høy’Kritisk replikering. (SAG). Likevel er den mest oppmerksomhetsgripende endringen klausulen som direkte tar for seg konkurransemiljøet. Openais kunngjøring lyder:”Hvis en annen Frontier AI-utvikler slipper et høyrisikosystem uten sammenlignbare sikkerhetstiltak, kan vi justere våre krav.”
Et klima av akselerasjon og gransking
Politikkjusteringen ble ikke gjort isolert. Det kom bare dager etter at rapporter dukket opp, og påsto at Openai hadde komprimert tiden betydelig tildelt for sikkerhetstesting på kommende modeller som O3. Flere kilder som er kjent med operasjonene hevdet evalueringsperioder krympet fra måneder til noen ganger under en uke, påstått drevet av behovet for å holde tritt med konkurrenter som Google, Meta og Xai.
Denne rapporterte akselerasjonen forårsaket uro blant noen involverte testere. En kilde som arbeidet med O3-evalueringen fortalte FT at tilnærmingen føltes”hensynsløs”, utdypende,”men fordi det er mer etterspørsel etter det, vil de ha det raskere. Jeg håper det ikke er et katastrofalt feil, men den er hensynsløs. Dette er en oppskrift på katastrofe.”En annen som deltok i den lengre seks måneders evalueringen for GPT-4 i 2023, uttalte angivelig:”De er bare ikke å prioritere offentlig sikkerhet i det hele tatt.”
Spesifikke testmetodologier kom også under ild. Det ble reist bekymringer når det gjelder omfanget av finjusteringsevalueringer-en teknikk som ble brukt til å undersøke for farlige fremvoksende evner ved å trene modeller på spesialiserte data (som virologi). Kritikere, inkludert tidligere Openai Safety-forsker Steven Adler, påpekte mangel på publiserte finjusteringsresultater for selskapets nyeste, mest dyktige modeller som O1 eller O3-mini.
Adler, antydet for de økonomiske tidene at”ikke å gjøre slike tester kan bety Openai og de andre AI-selskapene er undervurderende”den verste risikoen. Praksisen med å evaluere mellomliggende modellversjoner, eller”sjekkpunkter”, i stedet for den endelige koden som ble utgitt, ble også avhørt.”Det er dårlig praksis å gi ut en modell som er forskjellig fra den du evaluerte,”kommenterte en tidligere Openai-teknisk medarbeider til FT. Å forsvare selskapets prosess, Openais sjef for sikkerhetssystemer, Johannes Heidecke, hevdet til publikasjonen, “Vi har en god balanse mellom hvor raskt vi beveger oss og hvor grundige vi er,” tilskrev effektiviteten til automatisering og angivelig at Tested Checkpoints var det samme som Final Releases.
Strategic-skiftet og STRIC-REGRIC-ROPPS. kunngjorde MODOLS AL-en”Utgitt”Sannsynligvis om et par uker”, mens debuten til GPT-5 ville bli forsinket med”noen måneder.”En viktig begrunnelse som ble gitt var intensjonen om å”koble fra resonnementsmodeller og chat/fullføringsmodeller”,”markere et skifte fra en tidligere plan omtalt i februar 2025 for å potensielt slå sammen evner til GPT-5. Denne strategiske justeringen bringer O3-modellene, sentrale i de nylige bekymringene for sikkerhetstesting, i den umiddelbare forkant av Openais utgivelsesplan.
Mens potensielt tillater mer spillerom i interne sikkerhetsprosedyrer gjennom rammens nye klausul, er OpenAI samtidig med mer strengkontroll over hvem som har tilgang til sin mest avanserte teknologi. Som vi rapporterte rundt 14. april, er selskapet vurderer en”bekreftet organisasjon”-prosess . Dette kan kreve organisasjoner som søker API-tilgang til fremtidige modeller som O3 eller den forventede GPT-4.1 for å bekrefte identiteten deres ved hjelp av statlige utstedte ID-er. Openai antydet at dette hadde som mål å motvirke misbruk av et”lite mindretall”, men forslaget fremkalte bekymringer fra utviklere angående økt friksjon, personvern og potensiell ekskludering, spesielt for de utenfor openai openai > Bransjetrykk og intern dynamikk
De enorme økonomiske forventningene rundt Openai, styrket av verdsettelse av 300 milliarder dollar rapportert 1. april, utgjør en betydelig del av konkurransekonteksten. Denne verdsettelsen resulterte fra et anbudstilbud slik at innsidere kunne selge aksjer, i stedet for en tilstrømning av ny driftskapital, og potensielt forsterke presset for å levere kommersielt levedyktige produkter raskt. Selskapets betydelige investeringer i beregningsinfrastruktur, vist med en avtale på 11,9 milliarder dollar med Coreweave og deltakelse i flerfasen Stargate-prosjektet, fremhever ytterligere omfanget og kostnadene for å drifte AI-grensen.
interne uenigheter angående prioriteringen av sikkerhet kontra utviklingshastighet er ikke nytt for organisasjonen. Avgangen til Jan Leike, tidligere medleder for Superalignment-teamet med fokus på langsiktige risikoer, i mai 2024 ble preget av hans offentlige uttalelse om at”sikkerhetskultur og prosesser har tatt en baksete til skinnende produkter.”
Hans påfølgende flytting til konkurrent antropisk understreket disse spenningene. Nylig, med å legge til det interne perspektivet, inngav en gruppe tidligere Openai-ansatte en Amicus-kort 11. april 2025, til støtte for Elon Musks pågående søksmål mot selskapet. Oppgaven argumenterer for at Openais skift mot en avdekket-profitstruktur kan kompromittere sine opprinnelige sikkerhetsforpliktelser.
Openais rammeoppdatering, særlig potensialet til å justere standarder basert på konkurrentatferd, står i motsetning til nylige kunngjøringer fra noen rivaler. Google DeepMind foreslo et globalt AGI-sikkerhetsrammeverk 3. april, og ba om internasjonalt samarbeid. Antropisk har i mellomtiden offentliggjort teknisk sikkerhetsinnsats som sin tolkbarhetsramme, selv om selskapet også sto overfor gransking for angivelig å fjerne noen tidligere frivillige sikkerhetsforpliktelser. Ettersom reguleringsrammer som EU AI Act begynner å utøve innflytelse, introduserer Openais reviderte tilnærming en ny variabel i hvordan ledende laboratorier kan håndtere AI-risikoer i en stadig mer konkurransedyktig arena.