Studiuesit e Zoom kanë prezantuar një teknikë të re nxitëse të quajtur Zinxhiri i Draft (COD) që mund të ndryshojë rrënjësisht se si modelet e inteligjencës artificiale përpunojnë detyrat e arsyetimit. Në vend që të mbështeteni në shpjegimet e foljes, siç shihet në modelet tradicionale të arsyetimit të AI, kjo metodë detyron AI të jetë e strukturuar dhe efikase duke ruajtur saktësinë. src=”https://winbuzzer.com/wp-content/uploads/2025/03/zoom-chain-of-draft-prompting-sults-gsm8k.jpg>
pyetja tani është nëse teknikat si COD do të ndikojnë në industrinë më të gjerë, veçanërisht si lojtarët kryesorë si Openai, Google, Microsoft, dhe të tjerët Mount Mounting për të bërë presion në H2. > Si funksionon zinxhiri i draftit
Zinxhiri i draftit (COD) është një strategji e strukturuar e nxitjes e dizajnuar për të përmirësuar efikasitetin në AI duke arsyetuar duke zvogëluar pjesën e sipërme llogaritëse. Ai ndërtohet në nxitjen e zinxhirit të mendimit (COT), i cili inkurajon modele të mëdha gjuhësore (LLM) të prishin problemet komplekse në shpjegime me shumë hapa. COD kërkon të adresojë këto joefikasitet duke zbatuar një qasje minimaliste ndaj hapave të arsyetimit të ndërmjetëm. Në vend që të gjenerojë shpjegime të hollësishme në çdo hap, COD udhëzon modelin të prodhojë vetëm rezultate thelbësore të ndërmjetme-duke pasur parasysh se si një person mund të shënojë disa shënime kryesore ndërsa punon përmes një problemi. Kjo koncizitet i strukturuar i lejon LLM-ve të ruajnë saktësinë logjike ndërsa zvogëlojnë në mënyrë dramatike gjenerimin e panevojshëm të shenjës. (CCOT) ose arsyetimi i vetëdijshëm për shenjën, COD nuk mbështetet në buxhetet e paracaktuara të shenjës për një detyrë të tërë. Përkundrazi, ajo aplikon një kufizim dinamik, për hap-hap, duke lejuar hapa të pakufizuar të arsyetimit duke ruajtur konkretësinë e përgjithshme
pse efikasiteti i AI ka më shumë se kurrë
modelet e AI mbështeten në shenjat themelore të njësive themelore të përpunimit të tekstit-për të gjeneruar përgjigje. Sa më shumë shenja përdor një model, aq më e lartë është kostoja e funksionimit. Sidoqoftë, kjo qasje rrit ndjeshëm përdorimin e shenjave, duke i bërë operacionet e AI gjithnjë e më të shtrenjta. Në vend që të artikulojë AI çdo hap me verbozitet të tepërt, COD optimizon strukturën e përgjigjeve, duke siguruar thellësi logjike duke minimizuar prodhimin e panevojshëm.
Benchmarking i gjerë ka demonstruar që COD mund të përputhet ose të tejkalojë COT në saktësi ndërsa zvogëlon në mënyrë drastike përdorimin e shenjave. Në eksperimentet në të gjithë detyrat aritmetike, të zakonshme dhe simbolike të arsyetimit, COD përdoret sa më pak se 7.6% e shenjave të kërkuara nga COT, duke ulur ndjeshëm kostot e llogaritjes. Për të ndikuar në strategjitë e vendosjes së AI në fusha të shumta, veçanërisht në zonat ku efikasiteti i kostos dhe ulja e latencës janë shqetësime kritike. Të dhënat për vlerësimin e arsyetimit aritmetik në modelet e gjuhës. Rezultatet tregojnë se ndërsa COT arrin saktësi pak më të lartë, e bën këtë me një kosto masive llogaritëse. Në të kundërt, COD siguron një nivel gati-ekuivalent të korrektësisë ndërsa ul në mënyrë drastike konsumin e shenjave. Rezultatet tregojnë se COD jo vetëm që zvogëlon kërkesat e llogaritjes, por gjithashtu tejkalon COT në raste të caktuara, duke demonstruar efektivitetin e tij në aplikimet praktike. src=”https://winbuzzer.com/wp-content/uploads/2025/03/zoom-chain-of-draft-prompting-results-bench-stol-sort-results-derstand-ofictial.jpg”> Burimi: Zoom
detyra të arsyetimit simbolik, siç është detyra e Strukturave të Strukturave të Strukturave. Vlerësimi konfirmoi përmirësime të konsiderueshme të efikasitetit. Rezultatet në QWEN2.5 (1.5b dhe 3b), llama 3.2 (3b) dhe zmadhimi-SLM (2.3b) nxjerrin në pah një hendek më të rëndësishëm të performancës në krahasim me COT. src=”https://winbuzzer.com/wp-content/uploads/2025/03/zoom-chain-of-draft-prompting-results-gsm8k-small-langeage-models.jpg”> Burimi: Zmadhimi i këtyre gjetjeve sugjerojnë që modele të vogla kërkojnë të dhëna të imëta me cod-stile për të dhënë plotësisht përfitimet e tij efikase. Pa përshtatje, humbja e saktësisë bëhet më e theksuar, duke kufizuar zbatueshmërinë e menjëhershme të COD për sistemet e lehta të AI. Më 13 shkurt 2025, kompania njoftoi se do të ndërpresë modelin e tij të pavarur të pavarur O3 dhe do të konsolidonte aftësitë e tij të strukturuara të arsyetimit në GPT-5. Zhvendosja e përqendrimit nga opsionet e shumëfishta të modelit në një sistem më të efektshëm AI. Para lëshimit të tij, modeli themelor me emrin e koduar Orion ishte pritur të lëshohej si GPT-5. Microsoft ndërmori një hap vendimtar që i bëri presion më tej modelit të biznesit të Openai. Microsoft kohët e fundit njoftoi se asistenti i tij i kopilot tani do të ofronte falas O3-Mini-High të hapur, duke hequr një paywall që më parë kishte qasje të kufizuar në modelin më të përparuar të arsyetimit.
për të fituar para modelet e tij më të afta të AI. Kjo ndërrim nënvizon gjithashtu pse përparimet e efikasitetit si COD e Zoom po bëhen gjithnjë e më të rëndësishme. Më 26 shkurt 2025, AI Lab Deepseek Kinez njoftoi se po përshpejtonte lëshimin e modelit të tij R2. Fillimisht e planifikuar për maj 2025, fillimi i modelit u ngrit për të kundërshtuar mbizotërimin e Openai, Alibaba dhe Google. Sidoqoftë, kompania përballet me sfida përtej konkurrencës.
Ndërsa Openai dhe Deepseek rafinojnë strategjitë e tyre të arsyetimit të AI, kompani të tjera po përqendrohen në qasje të ndryshme për uljen e kostos. Lëshimi pozicionon Alibaba si një konkurrent i drejtpërdrejtë i Openai dhe Deepseek, veçanërisht për bizneset që kërkojnë zgjidhje të përballueshme të AI. Kompania po zhvillon Nova AI, një model i pronarit që pritet të nisë deri në qershor 2025. Kostot, kompanitë po eksperimentojnë me strategji të ndryshme. Pavarësisht nga nxitja e strukturuar e Cod, modelet e optimizuara të Deepseek, ose alternativat miqësore me koston e Alibaba, firmat e AI po lëvizin përtej madhësisë së modelit të plotë dhe po përqendrohen në efikasitetin afatgjatë.