Antropik po intensifikon garën e dritares së kontekstit AI, duke përmirësuar modelin e tij Claude Sonnet 4 për të trajtuar 1 milion shenja. në dispozicion tani në beta publike , masa vendos antropik në konkurrencën e drejtpërdrejtë me 400,000-të-gpt-gpt-5-të të mëdhenjve të gpt-it dhe të meta të mëdha, duke u mbështetur në 5x, duke u mbështetur në Kapacitetin e mëdhenj, të mëdhenj, duke u mbështetur në Kapacitetin e Madh, të mëdhenj. Analizoni bazat e tëra të kodeve ose grupe të mëdha dokumentesh menjëherë. Kjo shtytje në mbarë industrinë vjen ashtu si studimet e fundit mbi”kalbjen e kontekstit”sugjerojnë se performanca e modelit mund të përkeqësohet me inputet e gjata, duke ngritur pyetje në lidhje me strategjinë.
antropike bashkohet href=”https://www.anthropic.com/news/1m-context”target=”_ bosh”> API zyrtare antropike dhe Amazon Bedrock. Kompania gjithashtu ka konfirmuar që tipari po i vjen së shpejti në Vertex AI të Google Cloud, duke zgjeruar disponueshmërinë e saj për zhvilluesit e ndërmarrjeve. Antropik po e pozicionon këtë përmirësim për një klasë të re të aplikacioneve komplekse, të dhëna-intensive që më parë ishin jopraktike. Për zhvilluesit, kjo nënkupton aftësinë për të kryer analiza të kodit në shkallë të gjerë duke ngarkuar bazat e tëra të kodeve, duke lejuar modelin të kuptojë arkitekturën e projektit dhe të identifikojë varësitë ndër-skedare. Për studiuesit dhe analistët, ai lejon sintezën e grupeve të gjera të dokumenteve, të tilla si kontrata ligjore ose specifikime teknike, duke ruajtur kontekstin e plotë në qindra burime. Ai gjithashtu fuqizon krijimin e agjentëve më të sofistikuar, të vetëdijshëm për kontekstin që mund të ruajnë koherencën në qindra thirrje mjetesh dhe flukset e punës me shumë hapa. Bolt.New, një kompani që integron Claude në platformën e saj të zhvillimit të bazuar në shfletuesin, nxori në pah tejkalimin e vazhdueshëm të modelit të konkurrentëve. Eric Simons, Drejtori i Përgjithshëm i kompanisë dhe bashkëthemeluesi i kompanisë, deklaroi se”Me dritaren e kontekstit 1M, zhvilluesit tani mund të punojnë në projekte dukshëm më të mëdha duke ruajtur saktësinë e lartë që na nevojitet për kodim të botës reale.”
në mënyrë të ngjashme, Igent AI me qendër në Londër, i cili po zhvillon një partner inxhinieri softuer AI të quajtur Maestro, raportuar një ndikim transformues. Sean Ward, CEO dhe bashkëthemelues i Igent AI, e përshkroi azhurnimin si një zhvendosje themelore, duke vërejtur se mundëson”inxhinieri të vërtetë të inxhinierisë në shkallë të prodhimit-seanca multi-ditore në bazat e kodeve të botës reale-duke krijuar një paradigmë të re në inxhinierinë e softuerëve agjentë.”Peizazhi konkurrues tashmë përfshin Minimax me bazë në Singapor, i cili zbuloi një model me 4 milion shenja në janar, duke vendosur një bar të lartë për industrinë. Ai gjithashtu përfshin Meta, modeli i të cilit Llama 4 Scout krenohet me një kapacitet të shenjës 10 milion, duke shtyrë kufijtë e përpunimit me kontekst të gjatë edhe më tej. Target=”_ bosh”> çmimi për veçorinë e re është e nivelit . Për nxitje deri në 200,000 shenja, kostoja është 3 dollarë për milion shenja hyrëse. Për udhëzime më të mëdha, çmimi dyfishohet në 6 dollarë për milion shenja hyrëse. Kjo strukturë është krijuar për të menaxhuar ngarkesën e rritur llogaritëse të konteksteve më të gjata. Ndërsa ndërfaqet e tij në internet kanë kufij më të vegjël, GPT-5 API ofron një dritare maksimale të kontekstit prej 400,000 shenjat. Kjo shkallë e lartë është e rezervuar ekskluzivisht për përdoruesit e API, duke synuar zhvilluesit që ndërtojnë aplikacione që kërkojnë analizë të thellë të dokumenteve. Google’s Binjakët 2.5 Pro mbështet një dritare konteksti deri në 1 milion shenja.
Problemi ‘Kot i Kontekstit: A është më i madh gjithmonë më i mirë? Një raport i kohëve të fundit nga Chroma Research prezantoi konceptin e”kalbjes së kontekstit”, duke sfiduar narracionin”më i madh është më i mirë”. Përkundrazi, ajo testoi 18 LLM kryesore për aftësinë e tyre për të bërë konkluzione nga informacione të lidhura semantikisht, një detyrë shumë më e vështirë. Studiuesit vunë në dukje,”Ne demonstrojmë se edhe në këto kushte minimale, performanca e modelit degradon ndërsa gjatësia e hyrjes rritet, shpesh në mënyra befasuese dhe jo-uniforme.”
Për shembull, modeleve iu kërkua të konstatojnë vendndodhjen e një personazhi nga të dhëna indirekte, një detyrë ku performanca ra ndjeshëm, pasi u shtua teksti më tërheqës. Studimi gjithashtu zbuloi se modelet GPT kanë tendencë të halucinojnë përgjigje të gabuara, ndërsa modelet Claude shpesh nuk pranuan të përgjigjen kur u përballën me paqartësi. Këto gjetje nuk janë të izoluara. Një studim i përbashkët nga Microsoft dhe Salesforce raportoi një rënie të performancës 39% në biseda të gjata, me shumë kthesë. Meta’s Llama 4, megjithë dritaren e saj të Token 10 milion, raportohet se ka luftuar në standardet me kontekst të gjatë. Kjo ka bërë që disa, si studiuesi i AI Gary Marcus, të vënë në dyshim të gjithë qasjen. Ai argumentoi,”Askush me integritet intelektual ende nuk mund të besojë se shkallëzimi i pastër do të na çojë në AGI.”Ndërsa zhvilluesit fitojnë qasje në këto mjete të reja të fuqishme, përqendrimi mund të zhvendoset nga sa të dhëna mund të trajtojë një model se sa mirë përgatiten ato të dhëna.
Për shembull, modeleve iu kërkua të konstatojnë vendndodhjen e një personazhi nga të dhëna indirekte, një detyrë ku performanca ra ndjeshëm, pasi u shtua teksti më tërheqës. Studimi gjithashtu zbuloi se modelet GPT kanë tendencë të halucinojnë përgjigje të gabuara, ndërsa modelet Claude shpesh nuk pranuan të përgjigjen kur u përballën me paqartësi. Këto gjetje nuk janë të izoluara. Një studim i përbashkët nga Microsoft dhe Salesforce raportoi një rënie të performancës 39% në biseda të gjata, me shumë kthesë. Meta’s Llama 4, megjithë dritaren e saj të Token 10 milion, raportohet se ka luftuar në standardet me kontekst të gjatë. Kjo ka bërë që disa, si studiuesi i AI Gary Marcus, të vënë në dyshim të gjithë qasjen. Ai argumentoi,”Askush me integritet intelektual ende nuk mund të besojë se shkallëzimi i pastër do të na çojë në AGI.”Ndërsa zhvilluesit fitojnë qasje në këto mjete të reja të fuqishme, përqendrimi mund të zhvendoset nga sa të dhëna mund të trajtojë një model se sa mirë përgatiten ato të dhëna.