Openai har vendt sin beslutning om februar om å kansellere O3-modellen, og kunngjorde i stedet at den vil lansere O3 og O4-mini de kommende ukene-å sette GPT-5 på vent til senere i år. Oppdateringen ble bekreftet av administrerende direktør Sam Altman i et innlegg på X, der han sa at selskapet nå vil holde resonnementfokuserte modeller atskilt fra sine generelle språkmodeller.
“Endring av planer: Vi kommer til å gi ut O3 og O4-mini tross alt, sannsynligvis i et par uker, og det er å gjøre noe som kommer til å gjøre det. og chat/fullføringsmodeller.”Altman skrev. Han la til,”Vi er spente på forestillingen vi ser fra O3 internt.”
Planendring: Vi kommer til å gi ut O3 og O4-mini src=”https://winbuzzer.com/wp-content/uploads/2023/08/openai-logo.jpg”>
Det er en haug med grunner til dette, men den mest spennende er at vi kommer til å være i stand til å gjøre GPT-5 mye bedre enn vi opprinnelig…
-href=”https://twitter.com/sama/status/1908167621624856998?ref_src=twsrc%5etfw”Target=”_ integrert”evner direkte inn i GPT-5. Denne strategien var rettet mot å redusere brukerforvirring og effektivisere produktkompleksiteten. Openai hadde sagt at det ønsket å lage et enkelt system som kunne tjene alle funksjoner uten å kreve en”modellplukker.”
o3 og o4-mini: strukturert resonnement, skalert beregning
O3-planlagt rulling er bundet til dens resonnement benchmarks, som er på forhånd i desember 20. Den modellen 20. Den som er i desember 20. Den som er bundet i desember 20. Innstillinger med lav effektivitet og 91,5% i høyeffektivitetsmodus. På AIME 2024 MATEMATIKK BENCHMARK, nådde den 96,7%. Det presterte også godt på GPQA Diamond, en test for vitenskapelig resonnement på phd-nivå, med en score på 87,7%. Disse tallene plasserer O3 over GPT-4.5 og O3-mini i spesifikke tekniske oppgaver, spesielt i strukturerte domener.
ARC-prisforskere bemerket at”dette representerer første gang vi har observert en modell som løser nye oppgaver gjennom intern trinnsmessig tilpasning”, en referanse til O3-bruken av privat kjede. Dette gjør at den kan takle komplekse flertrinnsproblemer mer effektivt enn tidligere modeller.
En annen nøkkelfunksjon er dens evne til å skalere beregne basert på oppgavekompleksitet. O3 lar utviklere øke resonnementdybden, men avveiningen er bratt beregningsbruk-opptil 172 ganger mer i høyeffektiv konfigurasjoner. Disse kravene ble bekreftet i ARC Benchmark-bloggen og reiser spørsmål om gjennomførbarhet i skala.
O4-mini, selv om de ikke er utgitt, forventes å være et mindre søsken til O3. Basert på Openais navnekonvensjoner, tilbyr det sannsynligvis reduserte beregningskrav med mange av de samme resonnementets fordeler. Selskapet har ikke delt offentlige benchmarks eller spesifikasjoner ennå.
Enterprise-modeller og inntektsgenerder
Openais resonnementstilbud blir i økende grad segmentert. 20. mars lanserte selskapet O1-Pro via API Access, og målretter saker om bedriftsbruk som juridisk teknologi og agentrørledninger. Modellen støtter opptil 100 000 utgangstokener og krever $ 5 i tidligere utgifter for å låse opp tilgang. Pricing starts at $150 per million input tokens and $600 for outputs.
Described by OpenAI as a model that uses more compute to think harder and provide consistently better answers, it was introduced via OpenAI’s new Responses API, intended for structured applications with high prompt complexity.
At the other end of the spectrum, Microsoft has integrated OpenAI’s o3-mini-High model into Copilot uten kostnad, som rapportert 7. mars. Dette viser en divergens i forretningsmodeller: Microsoft pakker Openais resonnementverktøy i bredere programvare, mens Openai tjener penger på resonnement som en premium-funksjon.
venter på GPT-5, å lære av GPT-4,5
I mellomtiden er GPT-4.5 fortsatt Openais mest dyktige generelle-modell. GPT-4.5 ble utgitt i slutten av februar, og utvidet systemets kontekstvindu til 200 000 symboler og introduserte forbedringer i flerspråklig forståelse. Imidlertid underpresterer det fortsatt i matematikk-og vitenskapsresonnement benchmarks sammenlignet med O3-mini.
Altman beskrev GPT-4.5 som”den første modellen som føles som å snakke med en gjennomtenkt person”, men innrømmet at modellen ikke var designet som et resonnementkraftverk. Openai innrømmet at modeller som O3-mini fremdeles overgikk GPT-4.5 på høy-rigor-domener som koding og avansert problemløsing.
I mellomtiden har Google gitt ut Gemini 2.5 Pro, som ikke topper forskjellige benchmarks for AI-resonnementsmodeller.
Openais siste veikartskift utspiller seg sammen med betydelige økonomiske og infrastrukturbevegelser. 1. april kunngjorde selskapet en anbudsavtale på 40 milliarder dollar ledet av SoftBank, og presset verdsettelsen til 300 milliarder dollar. Strukturen i avtalen-først og fremst sekundær aksjesalg-tillot tidlige ansatte og investorer å utbetale mens de økte presset på Openai for å sende høye verdi-produkter.
For å støtte sin langsiktige veikart, investerer Openai i sin egen Compute Stack. I mars signerte den en beregningsavtale på 11,9 milliarder dollar med Coreweave og tok en eierandel på 350 millioner dollar i selskapet. Det fortsetter også utviklingen av tilpassede AI-brikker i samarbeid med Broadcom og TSMC, med tidlige design forventet senere i år.
Openai er en del av det amerikanske støttede Stargate-prosjektet, et flerfase-infrastrukturinitiativ fokusert på å redusere PO-datasentre og AI Research Capacity i USA. These Moves indikerer Openai.
Open-Weight Model and Transparency Push
Rett før O3-reverseringen kunngjorde Altman også at Openai forbereder utgivelsen av sin første språkmodell med åpen vekt siden GPT-2. Han beskrev modellen som”ganske dyktig”og ba utviklere og forskere om å gi tilbakemelding om hvordan de kan forbedre bruken. Selskapet avklarte at modellen vil omfatte forhåndsutdannede vekter, men ikke treningsdata eller kode.
“[w] e er glade for å gjøre dette til en veldig, veldig god modell!”Altman skrev. Flyttingen kommer midt i den økende utviklerens etterspørsel etter åpenhet og som svar på konkurranse fra open source-modeller utgitt av Meta, Mistral og DeepSeek.
Openai har også gjort endringer for å øke tolkbarheten. I februar begynte selskapet å avsløre interne resonnementspor fra O3-mini, og hjalp utviklere og forskere til å forstå hvordan modeller kommer til svar. Denne avgjørelsen gjenspeiler et bredere skifte mot forklarbarhet over selskapets resonnementsmodellfamilie.
En modulær fremtid for Openais modellkart
Openais sving mot å frigjøre O3 og O4-mini foran GPT-5 illustrerer sin stadig mer modulære tilnærming til modelldistribusjon. I stedet for å vente på å pakke muligheter til en altomfattende grense-modell, slipper Openai nå spesialiserte verktøy når de blir produksjonsklare.
Skiftet kommer med avveininger. Brukere står nå overfor flere modelltyper, men hver og en er bedre optimalisert for spesifikke oppgaver. Foretak kan ta i bruk avanserte resonnementsmodeller som O1-Pro, mens utviklere får tilgang til mellomsystemer som O4-mini-eller til åpne versjoner for mer gjennomsiktig eksperimentering.
Mens dette kan komplisere produktvalg på kort sikt, lar det Openai skyve oppdateringer raskere og svare på brukerens behov uten å holde tilbake for monolitic rykk rulai å skyve oppdateringer raskere og svare på brukerens behov. Hvorvidt GPT-5 til slutt vil konsolidere disse tilbudene-eller bare være en annen gren i selskapets ekspanderende modelltre-er det å sees.