Etter den turbulente utrullingen av GPT-5-modellen, tester Openai en ny”tenkningsinnsats”-funksjon for ChatGPT som gir brukerne mer granulær kontroll over AIs ytelse. Den eksperimentelle innstillingen ble oppdaget i slutten av august, og lar brukere velge mellom fire nivåer av beregningsintensitet.

Dette trekket er et direkte svar på den utbredte kritikken som ødela GPT-5-lanseringen, noe som fikk selskapet til å gjenopprette sin populære GPT-4O-modell og legge til manuelle kontroller. Ved å la brukerne balansere responshastighet mot analytisk dybde, har Openai som mål å adressere pålitelighetsproblemer og forbedre brukeropplevelsen.

fra en rotete lansering til manuelle kontroller

Openais opprinnelige visjon for GPT-5, lansert 7. august, var et Unified System som automatisk valgt den beste internmodellen for en for en spørsmål. Målet var å eliminere det administrerende direktør Sam Altman hadde kalt et”forvirrende rot”av forskjellige modeller. Imidlertid løsnet den ambisiøse strategien raskt.

brukere dokumenterte en kaskade av bisarre bugs og glarende fakta. Modellen oppfant fiktive tilstandsnavn som”Onegon”, mislyktes i grunnleggende matematikk, og produserte nonsensiske utganger, noe som førte til utbredt tilbakeslag. Den offentlige mottakelsen var så negativ at selskapet ble tvunget til en sjelden defensiv holdning.

Innen 8. august ga Altman en offentlig unnskyldning. Han innrømmet at”en feil”autoswitcher”mellom modellens interne modus hadde gjort det i lengre tid”virker vei”enn ment,”beskyldte en teknisk feil for den dårlige ytelsen. Denne snubelen ga ammunisjon for kritikere og skapte en åpning for rivaler, som var raske til å utnytte situasjonen.

Bare dager senere, 12. august, henrettet Openai en betydelig reversering. Det gjenopprettet GPT-4O for å betale abonnenter og introduserte manuelle modus for GPT-5:”Auto,””Fast”og”Thinking”. Denne pivoten signaliserte en stor leksjon for AI-lederen om å balansere innovasjon med brukerens forventninger.

Den nye”tenkningsinnsats”-funksjonen ser ut til å være en mer granulær utvikling av den kurskorrigering. Altman selv antydet om dette skiftet, og sa:”En læring for oss fra de siste dagene er at vi egentlig bare trenger å komme til en verden med mer tilpasning per bruker Til tilbakemelding fra brukeren.

under panseret: Hvordan ‘tenkningsinnsats’ fungerer

Den nye innsatsplukkeren gir brukerne direkte innflytelse over modellens beregningsbudsjett. I følge rapporter presenterer funksjonen fire forskjellige intensitetsnivåer for brukere å velge mellom. Dette er”Lette”,”Standard”,”utvidet”og”Max.”

Den nye Chatgpt Web-appversjonen har en oppdatert (skjult) tenkningsinnsats plukker-Max Thinking (200), utvidet tenkning (48), i standard tenking (18), lystenking (5)

og noen få andre relaterte eksperter, inkludert Models-modeller, som viser Modell-modellen, i en få modellering i en få modeller i en annen relatert modeller, inkludert Modell-modellen. href=”https://t.co/onwcbq4cuw”target=”_ blank”> pic.twitter.com/onwcbq4cuw

-Tibor blaho (@btibor91) 27. august, 2025

Dette lagdelt systemet lar brukere skreddersy AIs ytelse til spesifikke oppgaver. En bruker kan velge”lys”for et raskt, enkelt spørsmål, men bytte til”utvidet”eller”maks”når du jobber med et sammensatt problem som krever grundigere resonnement, for eksempel obligasjonsvurdering eller kodeanalyse.

Dette kan være et snev av en ny nivået ytelsesstrategi, potensielt åpning av dører for fremtidige inntektsmodeller utover et enkelt abonnement. Det formaliserer avveiningen mellom hastighet og kvalitet, en kjerneutfordring i storskala AI-distribusjon.

Et svar på dypere bekymringer for AI-sikkerhet

Dette presset for større brukerkontroll handler ikke bare om å fikse en botched-lansering; Det gjenspeiler en bredere industri som regner med AI-pålitelighet og sikkerhet. Funksjonen ankommer kort tid etter at Openai og rival Antropic publiserte resultatene fra felles sikkerhetstester 28. august.

Disse evalueringene, tamethipena-anththropic—race-tuel-realy-sevealed-trame-therth-ththropic-ture-hows/story-hower) ‘Duel’ i AI Arms Race, avslørte alarmerende feil i begge selskapenes modeller . Rapportene detaljerte spørsmål som”Extreme Sycophancy”, der modeller ville validere en brukers villfarende tro, og en vilje til å hjelpe til med farlige forespørsler.

Testene fremhevet også et filosofisk skill. Anthropics modeller nektet ofte å svare for å unngå feil, og prioriterte forsiktighet fremfor nytteverdien. I kontrast var Openais modeller mer nyttige, men også produsert betydelig kritiske feil, eller Hallucinations, i de kontrollerte testene Marcus, som hevdet,”Ingen med intellektuell integritet kan fremdeles tro at ren skalering vil få oss til AGI,”spørsmål om hele”Bigger Is Better”-paradigmet.

Arbeidet mitt her er virkelig gjort. Ingen med intellektuell integritet kan fremdeles tro at ren skalering vil få oss til AGI.

GPT-5 kan være en moderat kvantitativ forbedring (og det kan være billigere), men det mislykkes fortsatt på alle de samme kvalitative måtene som forgjengerne, på Chess, på…

-Gary Marcus (@garyMarc) href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5etfw”Target”blank”> 8. august 2025

ved å plassere”tenkningsinnsatsen”-skiven direkte i hendene på brukere, gir Openai dem til å dempe noen av disse risikoene. Flyttingen signaliserer en strategisk pivot fra en”automatisert tilnærming til en størrelse som passer til alle”til en mer gjennomsiktig, tilpassbar og til slutt mer forsvarbar brukeropplevelse.

Categories: IT Info