A GPT-5 modell turbulens bevezetését követően az OpenAi egy új „gondolkodási erőfeszítés” funkciót tesztel a CHATGPT számára, amely a felhasználók számára jobban granulált irányítást biztosít az AI teljesítménye felett. Augusztus végén észrevehetően a kísérleti beállítás lehetővé teszi a felhasználók számára, hogy a számítási intenzitás négy szintjéből válasszanak. Azáltal, hogy a felhasználók egyensúlyba hozhatják a válaszadási sebességet az analitikai mélység ellen, az Openai célja a megbízhatósággal kapcsolatos aggályok kezelése és a felhasználói élmény javítása. A cél az volt, hogy kiküszöbölje Sam Altman vezérigazgató, amelyet különféle modellek „zavaró rendetlenségének” neveztek. Az ambiciózus stratégia azonban gyorsan kibontakozott. A modell kitalálta a kitalált állapotneveket, mint például a „Onegon”, a Basic Math-nál sikertelen volt, és értelmetlen kimeneteket készített, ami széles körű visszahúzást eredményezett. A nyilvános fogadás annyira negatív volt, hogy a társaságot egy ritka védekező testtartásba kényszerítették. Elismerte, hogy a modell belső üzemmódjai között „hibás„ autoswitcher “hosszabb ideig„ úgy tűnik, hogy úgy tűnik, mint a szándékolt “, és a rossz teljesítmény miatt technikai hibát hibáztattak. Ez a botlás lőszert biztosított a kritikusok számára, és megnyitást teremtett a riválisok számára, akik gyorsan kihasználják a helyzetet. Felújította a GPT-4O-t az előfizetők fizetéséért, és a GPT-5 kézi módjait vezette be: „Auto”, „Fast” és „Gondolkodás”. Ez a pivot jelentős leckét jelentett az AI vezető számára az innováció és a felhasználói elvárások kiegyensúlyozásáról. Maga Altman maga utalt erre a műszakra, kijelentve: „Az egyik tanulás számunkra az elmúlt napok az, hogy valóban csak egy olyan világba kell jutnunk, ahol a modell személyiségének testreszabása több testreszabással.”Válasz a felhasználói visszajelzésekre. A jelentések szerint a szolgáltatás négy különálló szintű intenzitást mutat a felhasználók számára. Ezek a „könnyű”, „standard”, „kibővített” és „max.”
Az új chatgpt webalkalmazás verziója frissített (rejtett) gondolkodó erőfeszítéssel-Max gondolkodás (200), kiterjesztett gondolkodás (48), standard gondolkodás (18), fénymodell (5)
href=”https://t.co/onwcbq4cuw”Target=”_ üres”> pic.twitter.com/onwcbq4cuw
-Tibor blaho (@btibor91) augusztus 29, 2025
A modell a válasz megfogalmazásához szükséges. A több „lé” általában mélyebb, alaposabb elemzést eredményez, de növeli a válaszidőt is. A legmagasabb „max” beállítást állítólag a profi előfizetők számára kapják. A felhasználó a gyors, egyszerű kérdéshez választhatja a „Light”-t, de váltson a „kiterjesztett” vagy a „max”-ra, amikor egy olyan összetett problémán dolgozik, amely alaposabb érvelést igényel, például a kötvényértékelést vagy a kód-elemzést. Formalizálja a sebesség és a minőség közötti kompromisszumot, amely az alapvető kihívás a nagyszabású AI telepítés során. Ez tükrözi az iparág szélesebb körű számítását az AI megbízhatósággal és biztonsággal. A szolgáltatás nem sokkal azután érkezik, hogy az Openai és a rivális antropikus augusztus 28-án közzétette a közös biztonsági tesztek eredményeit. Az AI fegyverkezési versenyen riasztó hibákat mutatott ki mindkét vállalat modelljében . A jelentések olyan részletes kérdéseket, mint például a „Extreme Sycophancy”, ahol a modellek validálnák a felhasználó téveszmék hiedelmeit, és a hajlandóságot a veszélyes kérések támogatására. Az antropikus modellek gyakran megtagadták a hibák elkerülése érdekében, hogy az óvatossággal szemben rangsorolják a hasznosságot. Ezzel szemben az Openai modelljei sokkal hasznosabbak voltak, de szignifikánsan több ténybeli hibát vagy hallucinációt produkáltak, vagy hallucinációk, mint az ellenőrzött tesztekben. Azt állította: „Senki sem intellektuális integritással nem hisz abban, hogy a tiszta méretezés az AGI-ba fog minket elérni. A szellemi integritású senki sem hisz abban, hogy a tiszta méretezés az AGI-hez vezet. href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5etfw”Target=”_ üres”> Augusztus 8., 2025
Az eredmények szintén az eredményekről úgy tűnik, hogy az eredmények is érvényesülnek a Warrings-tól. Azt állította, hogy a vállalatnál: „A biztonsági kultúra és a folyamatok hátulját vitték a fényes termékekhez.”
Azáltal, hogy a „gondolkodás erőfeszítését” közvetlenül a felhasználók kezébe helyezi, az Openai felhatalmazza őket, hogy enyhítsék ezeket a kockázatokat. A lépés egy stratégiai forgót jelez egy „mindenki számára megfelelő” automatizált megközelítésből egy átláthatóbb, testreszabható és végső soron védhetőbb felhasználói élményhez.