Ang mga mananaliksik ng Zoom ay nagpakilala ng isang bagong pamamaraan ng pag-uudyok na tinatawag na chain of draft (COD) na maaaring panimula na baguhin kung paano pinoproseso ng mga artipisyal na modelo ng katalinuhan ang mga gawain sa pangangatuwiran. Sa halip na umasa sa mga paliwanag na pandiwa, tulad ng nakikita sa tradisyonal na mga modelo ng pangangatuwiran ng AI, ang pamamaraang ito ay pinipilit ang AI na maging nakabalangkas at mahusay habang pinapanatili ang kawastuhan. src=”data: imahe/svg+xml; nitro-empty-id=mtcznto3njk=-1; base64, phn2zyb2awv3qm94psiwidagnzy3idqx NSIGD2LKDGG9IJC2NYIGAGVPZ2H0PSI0MTUIIHHTBG5ZPSJODHRWOI8VD3D3LNCZLM9YZY8YMDAWL3N2zyi+PC9ZDMC+”> Ang tanong ngayon ay kung ang mga pamamaraan tulad ng COD ay maimpluwensyahan ang mas malawak na industriya, lalo na bilang mga pangunahing manlalaro tulad ng OpenAi, Google, Microsoft, at iba pa ay nahaharap sa pag-mount ng presyon upang gupitin ang mga gastos. Diskarte dinisenyo upang mapagbuti ang kahusayan sa pangangatuwiran ng AI habang binabawasan ang computational overhead. Bumubuo ito sa kadena ng pag-iisip (COT) na nag-uudyok, na naghihikayat sa mga malalaking modelo ng wika (LLM) na masira ang mga kumplikadong problema sa mga paliwanag na multi-hakbang. Nilalayon ng COD na matugunan ang mga hindi epektibo sa pamamagitan ng pagpapatupad ng isang minimalist na diskarte sa mga intermediate na mga hakbang sa pangangatuwiran. Sa halip na makabuo ng detalyadong mga paliwanag sa bawat hakbang, itinuturo ng COD ang modelo na makagawa lamang ng mga mahahalagang resulta ng intermediate-makin kung paano maaaring i-jot ng isang tao ang ilang mga pangunahing tala habang nagtatrabaho sa pamamagitan ng isang problema. Ang nakabalangkas na conciseness na ito ay nagpapahintulot sa mga LLM na mapanatili ang lohikal na kawastuhan habang kapansin-pansing binabawasan ang hindi kinakailangang henerasyon ng token. Mga saloobin (CCOT) o pangangatuwiran na may kamalayan sa badyet, ang COD ay hindi umaasa sa paunang natukoy na mga badyet ng token para sa isang buong gawain. Sa halip, nalalapat ito ng isang pabago-bago, per-hakbang na pagpilit, na nagpapahintulot sa mga hindi pinigilan na mga hakbang sa pangangatuwiran habang pinapanatili ang pangkalahatang conciseness
Ang mas maraming mga token na ginagamit ng isang modelo, mas mataas ang gastos ng operasyon. Gayunpaman, ang pamamaraang ito ay makabuluhang nagdaragdag ng paggamit ng token, na ginagawang mas mahal ang mga operasyon ng AI. Sa halip na maipahayag ang AI sa bawat hakbang na may labis na pananim, na-optimize ng COD ang istraktura ng mga tugon, tinitiyak ang lohikal na lalim habang binabawasan ang hindi kinakailangang output.
Ang malawak na benchmarking ay nagpakita na ang COD ay maaaring tumugma o malampasan ang cot sa kawastuhan habang drastically binabawasan ang paggamit ng token. Sa mga eksperimento sa buong aritmetika, commonsense, at simbolikong mga gawain sa pangangatuwiran, ang COD na ginamit nang mas kaunti sa 7.6% ng mga token na hinihiling ng COT, makabuluhang pagbaba ng mga gastos sa computational. Upang maimpluwensyahan ang mga diskarte sa pag-deploy ng AI sa maraming mga domain, lalo na sa mga lugar kung saan ang kahusayan ng gastos at pagbabawas ng latency ay mga kritikal na alalahanin. ginamit na dataset para sa pagsusuri ng aritmetika na pangangatuwiran sa mga modelo ng wika. Ang mga resulta ay nagpapahiwatig na habang nakamit ng COT ang bahagyang mas mataas na kawastuhan, ginagawa ito sa isang napakalaking gastos sa computational. Sa kaibahan, ang COD ay nagbibigay ng isang malapit na katumbas na antas ng kawastuhan habang ang pagbaba ng pagkonsumo ng token. Ipinapakita ng mga resulta na ang COD ay hindi lamang binabawasan ang mga kinakailangan sa computational kundi pati na rin ang outperforms cot sa ilang mga kaso, na nagpapakita ng pagiging epektibo nito sa mga praktikal na aplikasyon.
pinagmulan: Mag-zoom
simbolikong mga gawain sa pangangatuwiran, tulad ng hula ng flipping ng barya, sinubukan ang pagiging epektibo ng COD sa lubos na nakabalangkas na mga gawain na lohikal. Ang pagsusuri ay nakumpirma ang malaking pagpapabuti ng kahusayan. Ang mga resulta sa QWEN2.5 (1.5B at 3B), LLAMA 3.2 (3B), at ang Zoom-SLM (2.3B) ay nag-highlight ng isang mas makabuluhang agwat ng pagganap kumpara sa cot. src=”data: imahe/svg+xml; nitro-empty-id=mtc1nzoxmti1-1; base64, phn2zyb2awv3qm94psiwidagnzc0idyzniig d2lkdgg9ijc3ncigagvpz2h0psi2mzyiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”> pinagmulan: Mag-zoom
Ang mga natuklasang ito ay nagmumungkahi na ang mga maliliit na modelo ay nangangailangan ng pinong pag-tune sa data ng estilo ng COD upang ganap na magamit ang mga benepisyo ng kahusayan nito. Kung walang pagbagay, ang pagkawala ng kawastuhan ay nagiging mas malinaw, na nililimitahan ang agarang kakayahang magamit ng COD para sa magaan na mga sistema ng AI. Noong Pebrero 13, 2025, inihayag ng Kumpanya na itatigil nito ang hindi pinaniwalaang modelo ng O3 at pagsamahin ang nakabalangkas na mga kakayahan sa pangangatuwiran sa GPT-5. GPT-5, Paglilipat ng pokus mula sa maraming mga pagpipilian sa modelo sa isang mas naka-streamline na sistema ng AI. Bago ito ilabas ang pinagbabatayan na modelo kasama ang codename Orion ay inaasahan na mailabas bilang GPT-5. Nang maglaon, gumawa ng isang tiyak na hakbang ang Microsoft na higit na pinilit ang modelo ng negosyo ng OpenAi. Kamakailan lamang ay inihayag ng Microsoft na ang katulong ng copilot nito ay mag-aalok ngayon ng OpenAi ng O3-Mini-High nang libre, na nag-alis ng isang paywall na dati nang limitado ang pag-access sa mas advanced na modelo ng pangangatuwiran. I-monetize ang pinaka-may kakayahang mga modelo ng AI. Binibigyang diin din ng paglilipat na ito kung bakit ang mga breakthrough ng kahusayan tulad ng Zoom’s COD ay nagiging mas may kaugnayan. Noong Pebrero 26, 2025, inihayag ng Chinese AI Lab Deepseek na pinabilis nito ang pagpapalabas ng R2 model nito. Orihinal na naka-iskedyul para sa Mayo 2025, ang paglulunsad ng modelo ay inilipat upang kontrahin ang pangingibabaw ng OpenAI, Alibaba, at Google. Gayunpaman, ang kumpanya ay nahaharap sa mga hamon na lampas sa kumpetisyon.
Habang pinuhin ng OpenAi at Deepseek ang kanilang mga diskarte sa pangangatuwiran ng AI, ang iba pang mga kumpanya ay nakatuon sa iba’t ibang mga diskarte sa pagbabawas ng gastos. Ang mga posisyon ng paglabas ng Alibaba bilang isang direktang katunggali sa OpenAi at Deepseek, lalo na para sa mga negosyo na naghahanap ng abot-kayang mga solusyon sa AI. Ang kumpanya ay bumubuo ng NOVA AI, isang modelo ng pagmamay-ari na inaasahan na ilulunsad sa Hunyo 2025. Mga gastos sa pagpapatakbo, ang mga kumpanya ay nag-eeksperimento sa iba’t ibang mga diskarte. Kung sa pamamagitan ng nakabalangkas na pag-uudyok ng COD, ang mga na-optimize na modelo ng Deepseek, o mga alternatibong alternatibong alternatibong Alibaba, ang mga kumpanya ng AI ay lumilipat na lampas sa laki ng modelo at nakatuon sa pangmatagalang kahusayan.