I ricercatori di Zoom hanno introdotto una nuova tecnica di suggerimento chiamata Chain of Draft (COD) che potrebbe fondamentalmente cambiare il modo in cui i modelli di intelligenza artificiale elaborano compiti di ragionamento.
Ripensare il modo in cui l’IA genera le risposte, COD riduce l’utilizzo del token fino al 92% e più basso i costi operativi del 90%. Invece di fare affidamento su spiegazioni verbose, come si vede nei tradizionali modelli di ragionamento dell’IA, questo metodo costringe l’IA a essere strutturata ed efficiente mentre mantengono l’accuratezza.
Questa svolta arriva in un momento in cui i modelli di grandi dimensioni (LLM) stanno consumando quantità crescenti di potenza di calcolo, rendendo l’efficienza una preoccupazione crescente.
>
La domanda ora è se tecniche come il COD influenzeranno il settore più ampio, in particolare come i principali attori come Openai, Google, Microsoft e altri affrontano la pressione crescente per tagliare i costi.
Come la catena di bozza funziona
Conceds a Crot (CCOT) o ragionamento di token-budget-agerage, COD non si basa su budget pre-determinato per un intero attività. Invece, applica un vincolo dinamico, per fase, consentendo le fasi di ragionamento senza restrizioni mantenendo la concisione complessiva
Perché l’efficienza AI è più che mai
I modelli AI si basano su token-le unità fondamentali dell’elaborazione del testo-per generare risposte. Più token utilizza un modello, maggiore è il costo del funzionamento.
tecniche come la catena di pensieri (COT) sono stati sviluppati per migliorare la capacità dell’IA di gestire compiti complessi incoraggiando il ragionamento passo-passo. Tuttavia, questo approccio aumenta significativamente l’utilizzo del token, rendendo le operazioni di intelligenza artificiale sempre più costose.
Il metodo COD di Zoom introduce una strategia diversa. Invece di avere AI articolare ogni passo con una verbosità eccessiva, COD ottimizza la struttura delle risposte, garantendo la profondità logica minimizzando l’output inutile.
Le implicazioni di questo potrebbero essere vaste, in particolare per industrie che dipendono dall’automazione dell’AI-Strong, come Enterprise AI, Finance e clienti.
Un vasto benchmarking ha dimostrato che il COD può abbinare o superare il lettino in precisione, riducendo drasticamente l’uso di token. In esperimenti in attività di ragionamento aritmetico, di buon senso e simbolico, COD ha usato solo il 7,6% dei token richiesti dal COT, riducendo significativamente i costi computazionali.
Il potenziale di influenzare le strategie di distribuzione dell’IA in più settori, in particolare nelle aree in cui l’efficienza dei costi e la riduzione della latenza sono preoccupazioni fondamentali.
Il documento di ricerca zoom presenta valutazioni empiriche attraverso più categorie di attività, rivelando il COD rispetto al solaio su Gsm8k e Cotto. Set di dati per la valutazione del ragionamento aritmetico nei modelli linguistici. I risultati indicano che mentre il COT raggiunge una precisione leggermente più alta, lo fa a un costo computazionale enorme. Al contrario, COD fornisce un livello quasi equivalente di correttezza, abbassando drasticamente il consumo di token.
Fonte: Zoom
Per il ragionamento comune, il COD è stato valutato sulla comprensione della data e la comprensione dello sport della Big Pench. I risultati mostrano che il COD non solo riduce i requisiti computazionali, ma supera anche la COT in alcuni casi, dimostrando la sua efficacia nelle applicazioni pratiche.
fonte: fonte: Le attività di ragionamento simbolico di zoom
, come la previsione della moneta, hanno testato l’efficacia del COD in compiti logici altamente strutturati. La valutazione ha confermato sostanziali miglioramenti dell’efficienza.
Limitazioni su piccoli modelli
Sebbene il COD si rivela altamente efficace su LLM su larga scala, si comporta in modo meno efficiente su piccoli modelli (parametri ≤3b) a causa della mancanza di esposizione alla formazione di COD. I risultati su Qwen2.5 (1.5b e 3b), Llama 3.2 (3b) e zoom-SLM (2,3b) evidenziano un divario di prestazioni più significativo rispetto alla cot.
fonte: fonte: Zoom
Questi risultati suggeriscono che piccoli modelli richiedono una messa a punto con dati in stile COD per sfruttare appieno i suoi benefici di efficienza. Senza adattamento, la perdita di precisione diventa più pronunciata, limitando l’applicabilità immediata del COD per i sistemi di intelligenza artificiale leggeri.
Openi regola la sua strategia modello AI
Mentre le aziende come Zoom stanno lavorando sulla raffinazione nell’efficienza dell’IA, Opens sta attualmente limitando la sua formazione modello. Il 13 febbraio 2025, la società annunciò che avrebbe interrotto il suo modello O3 standalone inedito e consoliderebbe le sue capacità di ragionamento strutturate in GPT-5.
La decisione era in gran parte una risposta alla crescente confusione tra gli utenti su Openai in espansione dei modelli dell’IA. Spostare l’attenzione da più opzioni del modello a un sistema AI più snello. Prima della sua uscita, il modello sottostante con il nome in codice Orion era stato rilasciato come GPT-5.
Le sue prestazioni deludenti rispetto ai moderni modelli di ragionamento come O3-Mini di Openi, Grok 3 e Claude 3.7 Sonnet sembrano aver influenzato una decisione. Più tardi, Microsoft ha fatto un passo decisivo che ha ulteriormente fatto pressioni sul modello di business di Openi. Microsoft ha recentemente annunciato che il suo assistente di copilota avrebbe ora offerto gratuitamente O3-Mini di Openi, rimuovendo un paywall che aveva precedentemente limitato l’accesso al modello di ragionamento più avanzato.
Monetizzare i suoi modelli AI più capaci. Questo spostamento sottolinea anche il motivo per cui le scoperte di efficienza come il COD di Zoom stanno diventando sempre più rilevanti.
Deepseek si muove rapidamente per sfidare Openi
Nel frattempo, nel frattempo, la competizione nello spazio AI ha continuato a intensificare. Il 26 febbraio 2025, il laboratorio cinese AI Deepseek annunciò che stava accelerando il rilascio del suo modello R2. Originariamente previsto per il maggio 2025, il lancio del modello è stato spostato per contrastare il dominio di Openi, Alibaba e Google.
L’ascesa di Deepseek è coincisa con un aumento dello sviluppo dell’IA in Cina, dove le aziende stanno cercando alternative ai modelli sviluppati dagli Stati Uniti. Tuttavia, la società deve affrontare sfide oltre la concorrenza.
Dopo il sorprendente successo di Deepseek con il suo modello di ragionamento R1, secondo quanto riferito, altri cinesi hanno accumulato i processori H20 di Nvidia a causa del rafforzamento delle sanzioni commerciali statunitensi, riflettendo le crescenti difficoltà di efficienza di forte performance.
Mentre Openai e DeepSeek perfezionano le loro strategie di ragionamento AI, altre società si stanno concentrando su diversi approcci di riduzione dei costi.
Alibaba ha appena introdotto QWQ-32B, un modello AI open source progettato per fornire ragionamenti ad alte prestazioni con costi di calcolo ridotti. Il rilascio posiziona Alibaba come concorrente diretto di Openi e DeepSeek, in particolare per le aziende che cercano soluzioni AI a prezzi accessibili.
Amazon sta anche entrando nella gara di efficienza dell’intelligenza artificiale ma con una strategia diversa. La società sta sviluppando Nova Ai, un modello proprietario che dovrebbe essere lanciato entro il giugno 2025.
A differenza dell’approccio open source di Alibaba, Amazon sta integrando Nova Ai direttamente in AWS, rafforzando le sue offerte di servizi cloud AI e probabilmente il piano di restituzione di AI a Alexa Assistant, Alexa+. Le aziende stanno sperimentando strategie diverse. Sia attraverso il suggerimento strutturato di COD, i modelli ottimizzati di DeepSeek o le alternative per i costi di Alibaba, le aziende di intelligenza artificiale si stanno andando oltre le dimensioni del modello e si concentrano sull’efficienza a lungo termine.