Efter den turbulenta utrullningen av sin GPT-5-modell testar OpenAI en ny”tänkande insats”-funktion för chatgpt som ger användarna mer granulär kontroll över AI: s prestanda. I slutet av augusti tillåter den experimentella inställningen användare att välja mellan fyra nivåer av beräkningsintensitet.
Detta drag är ett direkt svar på den utbredda kritiken som skadade GPT-5-lanseringen, vilket fick företaget att återställa sin populära GPT-4O-modell och lägga till manuella kontroller. Genom att låta användare balansera svarshastigheten mot analytiskt djup syftar OpenAI till att ta itu med tillförlitlighetsproblem och förbättra användarupplevelsen.
från en rörig lansering till manuella kontroller
OpenAI: s ursprungliga vision för GPT-5, som lanserades den 7 augusti, var ett enhetligt system som automatiskt utvalda den bästa interna modellen. Målet var att eliminera vad VD Sam Altman hade kallat en”förvirrande röra”av olika modeller. Emellertid upptäcktes den ambitiösa strategin snabbt.
Användare dokumenterade en kaskad av bisarre buggar och gling faktafel. Modellen uppfann fiktiva tillståndsnamn som”OneGon”, misslyckades i grundläggande matematik och producerade nonsensiska utgångar, vilket ledde till utbredd motreaktion. Den offentliga mottagningen var så negativ att företaget tvingades in i en sällsynt defensiv hållning.
Senast 8 augusti utfärdade Altman en offentlig ursäkt. Han medgav att”en felaktig”autoswitcher”mellan modellens interna lägen hade gjort det under en längre tid”verkar vara dumare”än avsett”, skyller en teknisk brist för den dåliga prestanda. Denna snubbla gav ammunition för kritiker och skapade en öppning för rivaler, som var snabba att dra nytta av situationen.
bara några dagar senare, den 12 augusti, genomförde OpenAI en betydande reversering. Den återställde GPT-4O för betalande prenumeranter och introducerade manuella lägen för GPT-5:”Auto”,”snabbt”och”tänkande”. Denna pivot signalerade en stor lektion för AI-ledaren om att balansera innovation med användarförväntningar.
Funktionen”Tänkande insats”verkar vara en mer granulär utveckling av den kurskorrigering. Altman himself hinted at this shift, stating, “one learning for us from the past few days is we really just need to get to a world with more per-user customization of model personality.”
OpenAI’s VP of ChatGPT, Nick Turley, acknowledged the iterative process, noting, “we’re not always going to get everything on try #1 but I am very proud of how quickly the team can iterate,”framing the changes as a rapid response till användaråterkoppling.
Under huven: Hur”tänkande ansträngning”fungerar
Den nya ansträngningen plockaren ger användarna direkt inflytande över modellens beräkningsbudget. Enligt rapporter presenterar funktionen fyra olika intensitetsnivåer för användare att välja mellan. These are “light,”“standard,”“extended,”and “max.”
The new ChatGPT web app version has an updated (hidden) thinking effort picker – Max thinking (200), Extended thinking (48), Standard thinking (18), Light thinking (5)
And a few other related experiments, including showing models in the plus menu, showing the selected model in… pic.twitter.com/onwcbq4cuw
-tibor blaho (@btibor91) 29 augusti, 2025
every nivån motsvarar en internt”Modell tar för att formulera ett svar. Mer”juice”resulterar vanligtvis i en djupare, mer noggrann analys men ökar också responstiden. Den högsta”max”-inställningen är enligt uppgift grindad för Pro-prenumeranter.
Detta skiktade system gör det möjligt för användare att skräddarsy AI: s prestanda till specifika uppgifter. En användare kan välja”ljus”för en snabb, enkel fråga men byter till”utökad”eller”max”när han arbetar med ett komplext problem som kräver en mer grundlig resonemang, till exempel bondvärdering eller kodanalys.
Detta kan vara en antydning av en ny nivå av prestationsstrategi, som potentiellt öppnar dörrar för framtida intäktsmodeller utöver ett enkelt abonnemang. Den formaliserar avvägningen mellan hastighet och kvalitet, en kärnutmaning i storskalig AI-distribution.
Ett svar på djupare oro över AI-säkerhet
Denna drivkraft för större användarkontroll handlar inte bara om att fixa en botched lansering; Det återspeglar en bredare branschberäkning med AI-tillförlitlighet och säkerhet. Funktionen anländer strax efter att OpenAI och Rival Anthropic publicerade resultaten av gemensamma säkerhetstester den 28 augusti.
Dessa utvärderingar, . Rapporterna detaljerade frågor som”Extreme Sycophancy”, där modeller skulle validera en användares villfarliga övertygelser och en vilja att hjälpa till med farliga förfrågningar.
Testerna framhöll också en filosofisk klyftan. Anthropics modeller vägrade ofta att svara för att undvika fel, prioriterade försiktighet framför användbarhet. Däremot var Openais modeller mer användbara men också producerade betydligt mer faktiska fel, eller hallucinationer, i de kontrollerade testerna . Marcus, som hävdade,”Ingen med intellektuell integritet kan fortfarande tro att ren skalning kommer att få oss till AGI,”ifrågasätter hela”större är bättre”paradigm.
Mitt arbete här är verkligen gjort. Ingen med intellektuell integritet kan fortfarande tro att ren skalning kommer att få oss till AGI.
GPT-5 kan vara en måttlig kvantitativ förbättring (och det kan vara billigare) men det misslyckas fortfarande på alla samma kvalitativa sätt som sina föregångare, på chess, på…
-Gary Marcus (@ggarymar) href=”https://twitter.com/GaryMarcus/status/1953939152594252170?ref_src=twsrc%5Etfw” target=”_blank”>August 8, 2025
The results also seem to validate warnings from former OpenAI safety lead Jan Leike, who hävdade att i företaget”Säkerhetskultur och processer har tagit en baksäte till glänsande produkter.”
Genom att placera”tänkande insatsen”-ratten direkt i händerna på användarna ger OpenAI dem att mildra några av dessa risker. Flytten signalerar en strategisk pivot från en”enstor-passande alla”automatiserad strategi till en mer transparent, anpassningsbar och i slutändan mer försvarbar användarupplevelse.