Anthropic is de AI-contextraam race intensivering, het upgraden van zijn Claude Sonnet 4-model om 1 miljoen tokens te verwerken. Nu beschikbaar in openbare bèta , zet de verhuizing antropisch in directe competitie in directe concurrentie met Openai’s 400.000-token GPT-5 API en META’s 10 miljoen-gesneden llama 4 Analyseer volledige codebases of grote sets documenten tegelijk. Deze industriebrede duw komt net als recente studies naar”contextrot”suggestie dat modelprestaties kunnen verergeren met lange inputs, het oproepen van vragen over de strategie.

antropische sluit zich aan bij de miljoen-token club

De upgrade naar Claude Sonnet 4, die een vijfvoudige toename in capaciteit vertegenwoordigt, is nu toegankelijk in het openbare bèta door de Officiële antropische API en Amazon-gesteente. Het bedrijf heeft ook bevestigd dat de functie binnenkort naar Google Cloud’s Vertex AI komt, waardoor de beschikbaarheid voor enterprise-ontwikkelaars wordt uitgebreid. Anthropic positioneert deze verbetering voor een nieuwe klasse van complexe, gegevensintensieve applicaties die voorheen onpraktisch waren.

Volgens het bedrijf, de uitgebreide context venster, inzicht in meer uitgebreide context cases. Voor ontwikkelaars betekent dit de mogelijkheid om grootschalige code-analyse uit te voeren door volledige codebases te laden, waardoor het model projectarchitectuur kan begrijpen en cross-file afhankelijkheden kan identificeren. Voor onderzoekers en analisten maakt het de synthese mogelijk van uitgebreide documentsets, zoals juridische contracten of technische specificaties, met behoud van de volledige context in honderden bronnen. Het stelt ook de oprichting van meer geavanceerde, contextbewuste agenten in staat die samenhang kunnen handhaven over honderden gereedschapsoproepen en meerstaps workflows.

Early Adopters hebben de nieuwe capaciteit geprezen voor de impact ervan op real-world projecten. Bolt.new, een bedrijf dat Claude integreert in zijn browsergebaseerde ontwikkelingsplatform, benadrukte de voortdurende outperformance van concurrenten van het model. Eric Simons, de CEO en mede-oprichter van het bedrijf, verklaarde dat”met het 1M-contextvenster ontwikkelaars nu kunnen werken aan aanzienlijk grotere projecten met behoud van de hoge nauwkeurigheid die we nodig hebben voor real-world codering.”

Op dezelfde manier, in Londen gevestigde Igent AI, die een AI-software-engineeringpartner ontwikkelt, rapporteerde een transformerende impact. Sean Ward, CEO en mede-oprichter van IGENT AI, beschreef de update als een fundamentele verschuiving en merkte op dat het”echte productieschaaltechniek mogelijk maakt-meerdere dagen sessies op real-world codebases-het vestigen van een nieuw paradigma in agentische software-engineering.”

deze verhuizing stevig plaatsen in de”Million-Token Club in de”Million-Token Club in de”Million-Token Club,”een Elite-groep van een elite-groep van een elitegroep van AI Labs. Het competitieve landschap omvat al in Singapore gebaseerde Minimax, dat in januari een 4 miljoen tokenmodel onthulde, waardoor een hoge lat werd gelegd voor de industrie. Het bevat ook meta, wiens LLAMA 4 Scout-model een 10-miljoen tokencapaciteit heeft, waardoor de grenzen van lange-context-verwerking nog verder worden verlegd.

onder de kap: claude sonnet 4 vs. gpt-5 api

Anthropic’s Prijzen voor de nieuwe functie worden gelaagd . Voor aanwijzingen tot 200.000 tokens zijn de kosten $ 3 per miljoen input tokens. Voor grotere aanwijzingen verdubbelt de prijs tot $ 6 per miljoen input tokens. Deze structuur is ontworpen om de verhoogde rekenbelasting van langere contexten te beheren.

Dit contrasteert met de aanpak van Openai voor de onlangs gelanceerde GPT-5. Hoewel de webinterfaces kleinere limieten hebben, biedt de GPT-5 API een maximaal contextvenster van 400.000 tokens. Deze bovenste laag is exclusief voorbehouden aan API-gebruikers en richt zich op ontwikkelaars die applicaties bouwen die een diepe documentanalyse vereisen. Google’s Gemini 2.5 Pro ondersteunt een contextvenster van maximaal 1 miljoen tokens. 

Het probleem ‘Contextrot’: is groter altijd beter?

Terwijl de industrie racet naar steeds grotere contextvensters, suggereert een groeiend aantal onderzoek dat het eenvoudig toenemende inputgrootte geen betere prestaties garandeert. Een recent rapport van Chroma Research introduceerde het concept van”contextrot”, het uitdagen van het”groter is beter”-verhaal.

De studie ging verder dan eenvoudige”naald in een hooiberg”-tests, die alleen het ophalen van gegevens meten. In plaats daarvan testte het 18 toonaangevende LLM’s op hun vermogen om conclusies te trekken uit semantisch gerelateerde informatie, een veel moeilijkere taak. De onderzoekers merkten op:”We tonen aan dat zelfs onder deze minimale omstandigheden de modelprestaties afnemen naarmate de inputlengte toeneemt, vaak op verrassende en niet-uniforme manieren.”

werd bijvoorbeeld modellen gevraagd om de locatie van een personage af te leiden uit indirecte aanwijzingen, een taak waarbij de prestaties sterk daalden als meer afleidende tekst werd toegevoegd. Uit de studie bleek ook dat GPT-modellen de neiging hadden om verkeerde antwoorden te hallucineren, terwijl Claude-modellen vaak weigerden te antwoorden wanneer ze geconfronteerd werden met ambiguïteit.

Verrassend bleek uit de chroma-studie dat modellen beter presteerden wanneer tekst willekeurig werd geschud, wat suggereert dat de invoerstructuur zwaar invloed heeft op de aandacht van het model. Deze bevindingen zijn niet geïsoleerd. Een gezamenlijk onderzoek van Microsoft en Salesforce rapporteerde een prestatiedaling van 39% in lange, multi-turn gesprekken.

zelfs modellen met enorme theoretische limieten staan ​​voor praktische uitdagingen. Meta’s LLAMA 4 heeft, ondanks het 10 miljoen tokenvenster, naar verluidt geworsteld op lange-context benchmarks. Dit heeft ertoe geleid dat sommigen, zoals AI-onderzoeker Gary Marcus, de hele aanpak in twijfel trekken. Hij betoogde:”Niemand met intellectuele integriteit kan nog steeds geloven dat pure schaalverdeling ons naar Agi zal brengen.”

Dit bewijs suggereert dat”contexttechniek”-de zorgvuldige samenstelling van hoogwaardige, relevante gegevens-misschien kritischer is voor betrouwbare AI dan de brute-force-uitbreiding van contextwindows. Naarmate ontwikkelaars toegang krijgen tot deze krachtige nieuwe tools, kan de focus verleggen van hoeveel gegevens een model kan omgaan naar hoe goed die gegevens worden voorbereid.

Categories: IT Info