Studiuesit nga Google kanë prezantuar një kornizë të re të quajtur Zinxhiri i agjentëve (CoA), i krijuar për të adresuar një nga kufizimet më të vazhdueshme të modeleve të mëdha gjuhësore (LLM): trajtimin e detyrave me kontekst të gjatë.

CoA përdor një model bashkëpunimi me shumë agjentë për të përmirësuar ndjeshëm efikasitetin dhe saktësinë e arsyetimit në detyra të tilla si përmbledhja, përgjigjja e pyetjeve dhe plotësimi i kodit.

Duke ndarë inputet e gjata në më të vogla, të menaxhueshme. copa dhe duke i caktuar ato agjentëve të specializuar, korniza jep rezultate më të mira sesa qasjet tradicionale si Gjenerimi i Shtuar-Rikthim (RAG) dhe modele me kontekst të plotë.

I ngjashëm: Google zbulon Agentspace për të sfiduar inteligjencën artificiale në rritje të Microsoft Ekosistemi

Kuadri CoA ofron një ndryshim paradigme për AI, veçanërisht në aftësinë e saj për të përpunuar inpute të gjera që përndryshe do të tejkalonin kufizimet e LLM-ve. Google theksoi thjeshtësinë dhe efektivitetin e qasjes, duke e përshkruar atë si”pa trajnime, agnostike me detyrë/gjatë, të interpretueshme dhe me kosto efektive.”

Sfidat e detyrave të AI me kontekst të gjatë

Një nga pengesat kryesore në avancimin e aftësive të AI qëndron në menaxhimin e kontekstit të gjatë inputet Shumica e LLM-ve operojnë me një dritare konteksti fiks që kufizon aftësinë e tyre për të përpunuar grupe të dhënash të mëdha pa shkurtim. Megjithatë, kjo qasje shpesh vuan nga saktësia e ulët e rikthimit, duke çuar në informacion jo të plotë

I lidhur: NVIDIA Përparon AI Agentic me Modelet Llama dhe Cosmos Nemotron

Nga ana tjetër, modelet me kontekst të plotë zgjerojnë kapacitetin e tyre të përpunimit, por përballen me joefikasitet llogaritës, veçanërisht me rritjen e gjatësisë së hyrjes Çështja-the-middle”, ku informacionet kritike në mes të grupit të të dhënave janë të hequra nga prioriteti.

Adresat e kornizës CoA të Google-it për CoA-në. këto çështje duke shfrytëzuar një sistem bashkëpunues ku agjentët punëtorë përpunojnë segmente specifike të inputit në mënyrë sekuenciale. Çdo agjent punëtor i përpunon dhe i transferon gjetjet e tij tek tjetri, duke siguruar që asnjë kontekst të mos humbasë.

Një agjent menaxher më pas sintetizon të gjithë informacionin e mbledhur për të prodhuar një përgjigje përfundimtare. Kjo qasje hap pas hapi imiton zgjidhjen e problemeve njerëzore, ku detyrat ndahen në pjesë më të vogla për fokus dhe saktësi më të mirë.

Imazhi: Google

Kërkuesit e Google theksuan motivimin pas kornizën, duke thënë, “Kur dritarja bëhet më e gjatë se kapacitetet e tyre hyrëse të zgjeruara, LLM të tilla ende luftojnë për të përqendrohuni në informacionin e nevojshëm për të zgjidhur detyrën dhe vuani nga përdorimi joefektiv i kontekstit, siç është çështja e’humbur në mes’.”

Si funksionon zinxhiri i agjentëve

Korniza e zinxhirit të agjentëve funksionon në dy faza të dallueshme Në fazën e parë, agjentët punonjës përpunojnë pjesë të dhënash të caktuara, duke kryer detyra të tilla si nxjerrja e provave mbështetëse ose. përcjellja e gjetjeve përkatëse

Ky zinxhir komunikimi siguron që çdo punonjës të ndërtohet mbi njohuritë e një të mëparshmi. Kjo strukturë hierarkike jo vetëm që përmirëson saktësinë e arsyetimit, por gjithashtu redukton kostot llogaritëse.

I ngjashëm: Salesforce zbulon Agentforce 2.0, zgjerimin e agjentëve të AI përtej CRM

Google shpjegoi dizajni i kornizës si”ndërlidhja e leximit dhe arsyetimit, duke i caktuar çdo agjenti një kontekst të shkurtër.”Kjo qasje lejon CoA të trajtojë kontekste të gjata pa kërkuar që LLM-të të përpunojnë njëkohësisht të gjitha shenjat

Duke reduktuar kompleksitetin llogaritës, CoA ofron një zgjidhje më efikase dhe më të shkallëzuar për detyrat me kontekst të gjatë.

Performancë superiore në të gjithë standardet./strong>

Google kreu eksperimente të gjera në nëntë grupe të dhënash për të vlerësuar performancën e këtyre grupeve të të dhënave përfshinte domene të ndryshme, duke përfshirë përgjigjen e pyetjeve (p.sh., HotpotQA, MuSiQue), përmbledhjen (p.sh., QMSum, GovReport) dhe plotësimin e kodit (p.sh., RepoBench-P

CoA ia kalonte vazhdimisht RAG dhe Full-Context). modele për sa i përket saktësisë dhe efikasitetit.

Burimi: Google

Për shembull, në grupi i të dhënave HotpotQA, CoA shkëlqeu në arsyetimin multi-hop, një detyrë që kërkon sintetizimin e informacionit nga shumë burime për të arritur në një përgjigje të saktë.

Ndërsa RAG shpesh nuk arrinte të lidhë informacione të ndara semantikisht, por me rëndësi kontekstuale, CoA grumbulloi sistematikisht informacione nga çdo pjesë hyrëse. Google vuri në dukje,”Rezultatet tona tregojnë se në të nëntë grupet e të dhënave, CoA merr përmirësim mbi të gjitha linjat bazë deri në 10%.”

Në grupin e të dhënave NarrativeQA, CoA demonstroi aftësinë e saj për të tejkaluar modelet me kontekst të plotë, madje ato që mund të trajtojnë 200 mijë argumente Duke kufizuar dritaren e kontekstit në 8 mijë shenja dhe duke përdorur qasjen e saj me shumë agjentë, CoA ruajti performancë të lartë ndërkohë që. duke ulur ndjeshëm kostot llogaritëse.

Burimi: Google

Aplikacionet në botën reale Skenarët

Zbatimet praktike të CoA shtrihen në shumë industri në analizën ligjore, CoA mund të përpunojë dokumente të gjera ligjore dhe të identifikojë informacione kritike pa humbur detajet kryesore. Në kujdesin shëndetësor, korniza mund të grumbullojë të dhënat e pacientëve nga burime të ndryshme për të ofruar njohuri gjithëpërfshirëse diagnostikuese.

Institucionet akademike dhe qeveritare mund të përdorin CoA për përmbledhjen e kërkimit, duke sintetizuar gjetjet nga grupe të mëdha të dhënash.

Aftësia e CoA për të trajtuar detyrat e plotësimit të kodit thekson gjithashtu potencialin e saj në zhvillimin e softuerit. Duke analizuar bazat e mëdha të kodeve dhe duke identifikuar varësitë, korniza mund të optimizojë flukset e punës për zhvilluesit që punojnë me sisteme komplekse.

I ngjashëm: Cognition.ai nxjerr në treg Inxhinierin e Softuerit Devin AI për 500 dollarë në muaj.

Krahasimet me konkurrentët e industrisë

prezantimi i Google i CoA reflekton një theks në rritje te agjentët e vetëm të AI dhe kornizat bashkëpunuese të agjentëve të AI brenda industrisë së teknologjisë. OpenAI sapo lançoi Operatorin, një agjent AI i bazuar në shfletues, i krijuar për automatizimin e detyrave, ndërsa Microsoft zbuloi AutoGen v0.4 me kornizën Magentic-One për flukset e punës me shumë agjentë.

CoA e Google e veçon veten duke u fokusuar në mënyrë specifike në arsyetimin me kontekst të gjatë dhe përpunimin e detyrave.

Sipas studiuesve të Google, LLM-të shpesh marrin kontekst jo të plotë për shkak të kufizimeve në metodat tradicionale, por CoA. e trajton këtë duke përpunuar të gjithë të dhënat në bashkëpunim përmes agjentëve të shumtë.

Ky fokus në detyrat me kontekst të gjatë i jep CoA një unike avantazh në fushat që kërkojnë sintezë të gjerë informacioni.

Një vështrim në të ardhmen e AI

Pranimi i CoA thekson një prirje më të gjerë në zhvillimin e AI drejt modulare dhe sistemet bashkëpunuese. Duke u mundësuar agjentëve të specializuar të punojnë së bashku, CoA demonstron se si ndarja e detyrave mund të rrisë saktësinë dhe shkallëzueshmërinë.

Kuadri mund të hapë rrugën për përparime në inteligjencën e përgjithshme artificiale (AGI), ku sistemet janë të afta të arsyetojnë dhe të zgjidhin problemet në nivel njerëzor.

Përpjekjet e Google theksojnë gjithashtu rëndësinë. e zgjidhjeve me kosto efektive dhe të interpretueshme në AI të ndërmarrjes.

Categories: IT Info