Antropic intensifică cursa de ferestre de context AI, modernizând modelul său Claude Sonet 4 pentru a gestiona 1 milion de jetoane. Disponibil acum în beta publică , mișcarea pune antropică în concurență directă, cu 400.000 de tocuri de token-5 API și meta-ton-token Llama 4. Bazele de cod sau seturi mari de documente simultan. Această apăsare din întreaga industrie vine la fel de recente studii asupra „putregaiului contextului” sugerează că performanța modelului se poate agrava cu aporturi lungi, ridicând întrebări despre strategie.
Antropic se alătură clubului de milioane de tocuri
Upgrade la Claude Sonet 4, reprezentând o creștere de cinci ori a capacității, este accesibilă acum în beta publică prin API antropic oficial și Amazon Bedrock. De asemenea, compania a confirmat că funcția va veni în curând la Vertex AI Google Cloud, lărgindu-și disponibilitatea pentru dezvoltatorii de întreprinderi. Anthropic poziționează această îmbunătățire pentru o nouă clasă de aplicații complexe, care consumă date, care au fost anterior nepractice.
conform companiei, în cazul în care este vorba de mai multe cazuri de utilizare a utilizării contextului extins. Pentru dezvoltatori, aceasta înseamnă capacitatea de a efectua o analiză a codului la scară largă prin încărcarea întregurilor de cod întregi, permițând modelului să înțeleagă arhitectura proiectului și să identifice dependențele de fișiere încrucișate. Pentru cercetători și analiști, permite sinteza unor seturi de documente extinse, cum ar fi contracte legale sau specificații tehnice, menținând în același timp contextul complet pe sute de surse. De asemenea, împuternicește crearea unor agenți mai sofisticați, conștienți de context, care pot menține coerența pe sute de apeluri de instrumente și fluxuri de lucru în mai multe etape.
Adoptatorii timpurii au lăudat noua capacitate pentru impactul său asupra proiectelor din lumea reală. Bolt.New, o companie care îl integrează pe Claude în platforma sa de dezvoltare bazată pe browser, a evidențiat performanța continuă a concurenților. Eric Simons, CEO-ul și co-fondatorul companiei, a declarat că „cu fereastra de context de 1M, dezvoltatorii pot acum să lucreze la proiecte semnificativ mai mari, menținând în același timp o precizie ridicată de care avem nevoie pentru codificarea reală.”
În mod similar, Londra, la Londra, Igent AI, care dezvoltă un partener de inginerie software AI numită Maestro, a raportat un impact transformator. Sean Ward, CEO și co-fondator al Igent AI, a descris actualizarea ca pe o schimbare fundamentală, menționând că permite „adevărata inginerie la scară de producție-sesiuni de zi cu zi pe codurile reale-care suportă o nouă paradigmă în inginerie software agent.”
Această mișcare plasează ferm antropic în domeniul „Million-Token Club”. Peisajul competitiv include deja Minimax, bazat pe Singapore, care a dezvăluit un model de 4 milioane de jetoane în ianuarie, stabilind o bară ridicată pentru industrie. It also includes Meta, whose Llama 4 Scout model boasts a 10-million token capacity, pushing the boundaries of long-context processing even further.
Under the Hood: Claude Sonnet 4 vs. GPT-5 API
Anthropic’s Prețul pentru noua caracteristică este nivelat . Pentru solicitări de până la 200.000 de jetoane, costul este de 3 dolari pe milion de jetoane de intrare. Pentru prompturi mai mari, prețul se dublează până la 6 dolari pe milion de jetoane de intrare. Această structură este concepută pentru a gestiona încărcarea de calcul sporită a contextelor mai lungi.
Acest lucru contrastează cu abordarea lui OpenAI pentru GPT-5 recent lansat recent. În timp ce interfețele sale web au limite mai mici, API-ul GPT-5 oferă o fereastră de context maxim de 400.000 de jetoane. Acest nivel de top este rezervat exclusiv pentru utilizatorii API, vizând dezvoltatorii care construiesc aplicații care necesită o analiză profundă a documentelor. Gemini 2.5 Pro Google acceptă o fereastră de context de până la 1 milion de jetoane.
Problema „putregaiul contextului”: este mai mare întotdeauna mai bună?
În timp ce industria se îndreaptă spre ferestre de context din ce în ce mai mari, un corp din ce în ce mai mare de cercetare sugerează că pur și simplu creșterea dimensiunii de intrare nu garantează performanțe mai bune. Un raport recent al Chroma Research a introdus conceptul de „putregai de context”, provocând narațiunea „mai mare este mai bună”.
Studiul a trecut dincolo de simple teste „ac într-un fân”, care măsoară doar recuperarea datelor. În schimb, a testat 18 LLM-uri de conducere cu privire la capacitatea lor de a face inferențe din informații legate semantic, o sarcină mult mai grea. Cercetătorii au remarcat: „Demonstrăm că, chiar și în aceste condiții minime, performanța modelului se degradează pe măsură ce lungimea intrării crește, adesea în moduri surprinzătoare și non-uniforme. Studiul a constatat, de asemenea, că modelele GPT au avut tendința de a halucina răspunsuri greșite, în timp ce modelele Claude au refuzat adesea să răspundă atunci când se confruntă cu ambiguitate.
În mod surprinzător, studiul Chroma a descoperit că modelele au fost mai bune atunci când textul a fost amestecat la întâmplare, ceea ce sugerează că structura de intrare influențează puternic atenția modelului. Aceste descoperiri nu sunt izolate. Un studiu comun realizat de Microsoft și Salesforce a raportat o scădere a performanței de 39% în conversații lungi, cu mai multe rânduri,.
Chiar și modele cu limite teoretice uriașe se confruntă cu provocări practice. Se presupune că Llama 4 a lui Meta, în ciuda ferestrei sale de 10 milioane de jetoane, s-a luptat cu repere de context lung. Acest lucru i-a determinat pe unii, precum cercetătorul AI, Gary Marcus, să pună la îndoială întreaga abordare. El a susținut: „Nimeni cu integritate intelectuală nu poate crede în continuare că scalarea pură ne va duce la AGI. Pe măsură ce dezvoltatorii obțin acces la aceste noi instrumente puternice, accentul poate trece de la cât de multe date poate gestiona un model la cât de bine sunt pregătite aceste date.