În urma derulării turbulente a modelului său GPT-5, OpenAI testează o nouă caracteristică „eforturi de gândire” pentru ChatGPT, care oferă utilizatorilor un control mai granular asupra performanței AI. Dezvoltată la sfârșitul lunii august, setarea experimentală permite utilizatorilor să aleagă dintre patru niveluri de intensitate computațională.

Această mișcare este un răspuns direct la criticile răspândite care a marcat lansarea GPT-5, care a determinat compania să-și restabilească popularul model GPT-4O și să adauge controale manuale. Lăsând utilizatorilor să echilibreze viteza de răspuns față de profunzimea analitică, OpenAI își propune să abordeze problemele de fiabilitate și să îmbunătățească experiența utilizatorului.

de la o lansare dezordonată la controale manuale

OpenAI viziunea originală a lui OpenAI pentru GPT-5, lansată pe 7 august, a fost un sistem unificat care a selectat automat cel mai bun model intern pentru o întrerupere. Scopul a fost eliminarea a ceea ce CEO Sam Altman a numit o „mizerie confuză” a diferitelor modele. Cu toate acestea, strategia ambițioasă se dezvăluie rapid.

utilizatorii au documentat o cascadă de bizarre bizar și erori fracționale. Modelul a inventat nume de stat de ficțiune precum „Onegon”, a eșuat la matematica de bază și a produs rezultate nesensibile, ceea ce a dus la o reacție pe scară largă. Recepția publică a fost atât de negativă, încât compania a fost forțată într-o postură defensivă rară.

până la 8 august, Altman a emis scuze publice. El a recunoscut că „un„ autoswitcher “defectuos între modurile interne ale modelului a făcut-o pentru o perioadă mai lungă de timp„ să pară mult mai neplăcută decât prevăzută “, învinovățind un defect tehnic pentru performanțele slabe. Această poticnire a oferit muniții pentru critici și a creat o deschidere pentru rivali, care au valorificat rapid situația.

doar zile mai târziu, pe 12 august, Openai a executat o inversare semnificativă. Acesta a restabilit GPT-4O pentru a plăti abonații și a introdus moduri manuale pentru GPT-5: „Auto”, „Fast” și „Gândire”. Acest pivot a semnalat o lecție majoră pentru liderul AI cu privire la echilibrarea inovației cu așteptările utilizatorului.

Noua caracteristică „Efortul de gândire” pare a fi o evoluție mai granulară a corecției cursului. Altman însuși a arătat în această schimbare, afirmând: „O învățare pentru noi din ultimele zile este că trebuie doar să ajungem într-o lume cu mai multă personalizare pe utilizator a personalității modelului. Feedback-ul utilizatorilor.

sub capotă: modul în care „efortul de gândire” funcționează

Noul efort de eforturi oferă utilizatorilor o influență directă asupra bugetului de calcul al modelului. Conform rapoartelor, funcția prezintă patru niveluri distincte de intensitate pentru care utilizatorii să aleagă. Acestea sunt „lumină”, „standard”, „extins” și „Max”

Noua versiune de aplicații web ChatGPT are un pictor de eforturi de gândire actualizat (ascuns)-gândire maximă (200), gândire extinsă (48), gândire standard (18), Light Thinking (5)

și alte câteva experimente conexe, inclusiv afișarea modelelor în meniul plus, care arată modelul selectat în… pic.twitter.com/onwcbq4cuw

-Tibor blaho (@btibor91) august 29, 2025

Pași pe care îl face modelul pentru a formula un răspuns. Mai mult „suc” are ca rezultat de obicei o analiză mai profundă, mai atentă, dar crește și timpul de răspuns. Cea mai mare setare „Max” este creată pentru abonații Pro.

Acest sistem cu niveluri permite utilizatorilor să adapteze performanța AI la sarcini specifice. Un utilizator ar putea selecta „lumină” pentru o întrebare rapidă și simplă, dar trece la „extins” sau „max” atunci când lucrează la o problemă complexă care necesită un raționament mai detaliat, cum ar fi evaluarea obligațiunilor sau analiza codului.

Aceasta ar putea fi un indiciu al unei noi strategii de performanță la niveluri, care poate deschide uși pentru modelele de monetizare viitoare dincolo de un abonament simplu. Se oficializează compensarea dintre viteză și calitate, o provocare de bază în implementarea AI pe scară largă.

Un răspuns la preocupările mai profunde cu privire la siguranța AI

Această apăsare pentru un control mai mare nu se referă doar la remedierea unei lansări afectate; Acesta reflectă o industrie mai largă care are în vedere fiabilitatea și siguranța AI. Funcția ajunge la scurt timp după ce Openai și Rival Anthropic a publicat rezultatele testelor de siguranță comune pe 28 august

aceste evaluări, Încadrat de unii ca un arms-race/”target=”_ blank”> Încadrat de unii ca un arms-race/”target=”_ blank”> Încadrat de unii ca un arms-race/”target=”ice „Duel” în cursa de arme AI, a dezvăluit defecte alarmante la modelele ambelor companii . Rapoartele de probleme detaliate, cum ar fi „sycophancy extremă”, unde modelele ar valida credințele delirante ale utilizatorului și o voință de a ajuta la solicitări periculoase.

Testele au evidențiat și o divizare filosofică. Modelele Anthropic au refuzat adesea să răspundă pentru a evita erorile, prioritizând prudența asupra utilității. In contrast, OpenAI’s models were more helpful but also produced significantly more factual errors, or hallucinations, in the controlled tests.

The GPT-5 debacle provided ammunition for critics like AI researcher Gary Marcus, care a argumentat: „Nimeni cu integritate intelectuală nu poate crede în continuare că scalarea pură ne va duce la AGI”, punând la îndoială întreaga paradigmă „mai mare este mai bună”.

Munca mea de aici este cu adevărat făcută. Nobody with intellectual integrity can still believe that pure scaling will get us to AGI.

GPT-5 may be a moderate quantitative improvement (and it may be cheaper) but it still fails in all the same qualitative ways as its predecessors, on chess, on…

— Gary Marcus (@GaryMarcus) 8 august, 2025

Rezultatele par a fi, de asemenea a susținut că la companie, „Cultura și procesele de siguranță au dus un loc din spate la produsele strălucitoare. Mișcarea semnalează un pivot strategic dintr-o abordare automatizată „unică-se potrivește” cu o experiență de utilizator mai transparentă, personalizabilă și, în cele din urmă, mai de apărare.

Categories: IT Info