A

antropikus fokozza az AI kontextus ablakversenyt, frissítve a Claude Sonnet 4 modelljét, hogy 1 millió token kezelje. Nyilvános béta-ban elérhető , a lépés az antropikus versenybe helyezi az Openai 400 000 Token GPT-5 API-t, és a Meta 10 millió Token Llama 4. kódbázisok vagy nagy dokumentumkészletek egyszerre. Ez az iparági szintű lökés ugyanúgy jön létre, amikor a „Context Rot”-ról szóló legújabb tanulmányok a modell teljesítményét hosszú bemenetekkel súlyosbíthatják, és kérdéseket vetnek fel a stratégiával kapcsolatban. href=”https://www.anthropic.com/news/1m-centext”Target=”_ üres”> Hivatalos Antropic API és az Amazon alaprock. A vállalat azt is megerősítette, hogy a szolgáltatás hamarosan megjelenik a Google Cloud Vertex AI-jéhez, kibővítve a vállalati fejlesztők számára elérhető rendelkezésre állását. Az antropikus helyezi ezt a javítást egy olyan komplex, adat-intenzív alkalmazások új osztályához, amelyek korábban nem voltak praktikusak. A fejlesztők számára ez azt jelenti, hogy képesek a nagy léptékű kódelemzés elvégzésére a teljes kódbázisok betöltésével, lehetővé téve a modell számára, hogy megértse a projekt architektúráját és azonosítsa a keresztfájdalmak függőségeit. A kutatók és az elemzők számára ez lehetővé teszi a kiterjedt dokumentumkészletek, például jogi szerződések vagy műszaki előírások szintézisét, miközben a teljes kontextust több száz forrás között tartja fenn. Emellett felhatalmazza a kifinomultabb, kontextus-tudósító szerek létrehozását, amelyek fenntarthatják a koherenciát több száz szerszámhívás és többlépéses munkafolyamat között. A Bolt.New, egy olyan cég, amely Claude-t integrálja böngésző-alapú fejlesztési platformjába, kiemelte a modell folyamatos versenytársainak felülmúlását. Eric Simons, a cég vezérigazgatója és társalapítója kijelentette, hogy „az 1M kontextus ablakkal a fejlesztők most már jelentősen nagyobb projektekkel dolgozhatnak, miközben megőrzik a valós kódoláshoz szükséges nagy pontosságot.”

Hasonlóképpen, a londoni székhelyű IGENT AI, amely egy AI szoftverfejlesztési partnerét fejleszti ki, amelynek nevű maestro-t neveznek, transzformációs hatást jelentettek. A Sean Ward, az IGENT AI vezérigazgatója és társalapítója alapvető váltásnak írta le a frissítést, megjegyezve, hogy ez lehetővé teszi „valódi termelési méretű mérnöki műszaki műszaki-a valós kódexek többnapos üléseit-, amely új paradigmát jelent az Agentic Software Engineering-ben.”

Ez a mozgás szilárdan Anthropic-t kínál a „Million-Token klubban”. A versenyképes táj már magában foglalja a szingapúri székhelyű Minimax-ot, amely januárban 4 millió token modellt mutatott be, és magas sávot állított fel az ipar számára. Ez magában foglalja a Meta-t is, amelynek Llama 4 cserkészmodelle 10 millió token kapacitást büszkélkedhet, és még tovább tolja a hosszú kontextusos feldolgozás határait. Target=”_ üres”> Az új szolgáltatás árazása többszintű . Legfeljebb 200 000 token kérés esetén a költség 3 dollár/millió bemeneti token. Nagyobb utasítások esetén az ár 6 millió dollárra növekszik. Ezt a struktúrát úgy tervezték, hogy kezelje a hosszabb kontextusok megnövekedett számítási terhelését. Míg a webes interfészek kisebb korlátokkal rendelkeznek, a GPT-5 API maximális kontextusú ablakot kínál 400 000 token. Ez a felső szint kizárólag az API-felhasználók számára van fenntartva, és a fejlesztők építési alkalmazásait célozza meg, amelyek mély dokumentum-elemzést igényelnek. A Google Gemini 2.5 Pro legfeljebb 1 millió token kontextus ablakot támogat. 

A „kontextus rothadás” probléma: A nagyobb mindig jobb? A Chroma Research egy nemrégiben készített jelentése bevezette a „kontextus rothadás” fogalmát, amely kihívást jelent a „nagyobb is jobb” narratíván. Ehelyett 18 vezető LLM-et tesztelt arra, hogy képesek legyenek következtetéseket a szemantikailag kapcsolódó információkból, sokkal nehezebb feladatból. A kutatók megjegyezték: „Bizonyítsuk, hogy még a minimális körülmények között is a modell teljesítménye romlik, amikor a bemeneti hossz növekszik, gyakran meglepő és nem egyenletes módon.”

Például a modelleket arra kérték, hogy következtetjenek egy karakter helyének a közvetett nyomokból, egy olyan feladat, ahol a teljesítmény hirtelen visszaesett, mivel a zavaró szöveg hozzáadódott. A tanulmány azt is megállapította, hogy a GPT-modellek hajlamosak a rossz válaszok hallucinálására, míg a Claude modellek gyakran megtagadták a választ, amikor kétértelműséggel szembesültek. Ezek az eredmények nem elszigeteltek. A Microsoft és a Salesforce közös tanulmánya 39%-os teljesítménycsökkenést jelentett a hosszú, több fordulásban folytatott beszélgetésekben. A Meta’s Llama 4, a 10 millió token ablak ellenére, állítólag hosszú kontextusú referenciaértékeken küzdött. Ez arra késztette néhányat, mint az AI kutató, Gary Marcus, hogy megkérdőjelezzék a teljes megközelítést. Azt állította: „A szellemi integritással rendelkező senki sem hisz abban, hogy a tiszta méretezés az AGI-hez vezet.”

Ez a bizonyíték azt sugallja, hogy a „kontextusmérnöki munka”-a magas színvonalú, releváns adatok gondos kurátora-kritikusabbak lehetnek a megbízható AI-hez, mint a kontextus-ablakok brute-erő bővítéséhez. Mivel a fejlesztők hozzáférhetnek ezekhez a hatékony új eszközökhöz, a hangsúly a modell mennyire képes kezelni a modellt, hogy mennyire képesek legyenek az adatok készítésére.

Categories: IT Info