Os pesquisadores de zoom introduziram uma nova técnica de promoção chamada cadeia de rascunho (COD) que poderia mudar fundamentalmente como os modelos de inteligência artificial processam tarefas de raciocínio. Em vez de depender de explicações detalhadas, como visto nos modelos tradicionais de raciocínio da IA, esse método força a IA a ser estruturada e eficiente, mantendo a precisão. src=”Data: imagem/svg+xml; nitro-inempty-id=mtczno3njk=-1; base64, phn2zyb2awv3qm94psiwidagnzy3idqx Nsigd2lkdgg9ijc2nyigagvpz2h0psi0mtuiiHHTBG5ZPSJODHRWOI8VD3D3LNCZLM9YZY8yMDAWL3N2ZYI+pc9zdmc+”>
A questão agora é se técnicas como o COD influenciarão a indústria mais ampla, principalmente porque os principais players como OpenAI, Google, Microsoft e outros enfrentam pressão de montagem para reduzir custos. Estratégia Projetado para melhorar a eficiência no raciocínio da IA, reduzindo a sobrecarga computacional. Ele se baseia na cadeia de pensamento (BOT) que provoca, o que incentiva os grandes modelos de linguagem (LLMs) a dividir problemas complexos em explicações em várias etapas. O COD procura abordar essas ineficiências, aplicando uma abordagem minimalista para as etapas de raciocínio intermediárias. Em vez de gerar explicações detalhadas a cada etapa, o COD instrui o modelo a produzir apenas resultados intermediários essenciais-agravando como uma pessoa pode anotar algumas notas importantes enquanto trabalha com um problema. Essa concisão estruturada permite que os LLMs mantenham a precisão lógica, reduzindo drasticamente a geração desnecessária de token. Pensamentos (CCOT) Ou raciocínio de token-budget-cede, o COD não depende de orçamentos de token pré-determinados para uma tarefa inteira. Em vez disso, aplica uma restrição dinâmica e por passo, permitindo etapas de raciocínio irrestritas, mantendo a concisão geral
Por que a eficiência da IA importa mais do que nunca
Os modelos de IA dependem de tokens-as unidades fundamentais do processamento de texto geram as respostas. Quanto mais tokens um modelo usa, maior o custo da operação. Técnicas
Como a cadeia de pensamento (COT) foi desenvolvida para melhorar a capacidade da IA de lidar com tarefas complexas, incentivando o raciocínio passo a passo. No entanto, essa abordagem aumenta significativamente o uso de token, tornando as operações de IA cada vez mais caras.
O método de bacalhau Zoom apresenta uma estratégia diferente. Em vez de articular a IA com verbosidade excessiva, o COD otimiza a estrutura das respostas, garantindo a profundidade lógica e minimizando a saída desnecessária.
Benchmarking extenso demonstrou que o COD pode corresponder ou superar o COT em precisão enquanto reduz drasticamente o uso do token. Em experimentos em tarefas de raciocínio aritmético, sensível, comuns e simbólicas, o COD usou apenas 7,6% dos tokens exigidos pelo COT, reduzindo significativamente os custos computacionais. Para influenciar as estratégias de implantação de IA em vários domínios, particularmente em áreas em que a eficiência de custos e a redução de latência são preocupações críticas. conjunto de dados para avaliar o raciocínio aritmético em modelos de idiomas. Os resultados indicam que, embora o COT atinja uma precisão um pouco mais alta, isso o faz a um custo computacional maciço. Por outro lado, o COD fornece um nível quase equivalente de correção e, ao mesmo tempo, diminui drasticamente o consumo de token. Os resultados mostram que o COD não apenas reduz os requisitos computacionais, mas também supera o COT em certos casos, demonstrando sua eficácia em aplicações práticas.
fonte: Zoom
tarefas de raciocínio simbólico, como previsão de inversão de moedas, testaram a eficácia do COD em tarefas lógicas altamente estruturadas. A avaliação confirmou melhorias substanciais de eficiência. Os resultados em Qwen2.5 (1,5b e 3b), llama 3.2 (3b) e zoom-slm (2.3b) destacam uma lacuna de desempenho mais significativa em comparação com o COT.
fonte: Zoom
Esses achados sugerem que pequenos modelos requerem ajuste fino com dados no estilo de bacalhau para aproveitar completamente seus benefícios de eficiência. Sem adaptação, a perda de precisão se torna mais pronunciada, limitando a aplicabilidade imediata do COD para sistemas leves de IA. Em 13 de fevereiro de 2025, a empresa anunciou que descontinuaria seu modelo O3 independente de O3 e consolidaria seus recursos de raciocínio estruturado no GPT-5. GPT-5, mudando o foco de várias opções de modelo para um sistema de IA mais simplificado. Antes de seu lançamento, esperava-se que o modelo subjacente com o codinome Orion fosse lançado como GPT-5. A Microsoft deu um passo decisivo que pressionou ainda mais o modelo de negócios da OpenAI. A Microsoft anunciou recentemente que seu assistente de copiloto agora ofereceria o O3-altura do OpenAI de graça, removendo um paywall que anteriormente havia acesso limitado ao modelo de raciocínio mais avançado. monetize seus modelos de IA mais capazes. Essa mudança também ressalta por que os avanços da eficiência como o COD de Zoom estão se tornando cada vez mais relevantes.
Deepseek se move rapidamente para desafiar o Openai
Enquanto isso, a competição no espaço da IA continuou se intensificando. Em 26 de fevereiro de 2025, a AI Lab Chinese Deepseek anunciou que estava acelerando o lançamento de seu modelo R2. Originalmente programado para maio de 2025, o lançamento do modelo foi movido para combater o domínio de Openai, Alibaba e Google. No entanto, a empresa enfrenta desafios além da concorrência.
Enquanto o OpenAI e a Deepseek refinam suas estratégias de raciocínio de IA, outras empresas estão se concentrando em diferentes abordagens de redução de custos. O lançamento posiciona o Alibaba como um concorrente direto da OpenAI e Deepseek, principalmente para empresas que procuram soluções de IA acessíveis.
Amazon também está entrando na corrida de eficiência da IA, mas com uma estratégia diferente. A empresa está desenvolvendo Nova IA, um modelo proprietário que deve ser lançado em junho de 2025. Custos, as empresas estão experimentando estratégias diferentes. Seja através do impulso estruturado do COD, dos modelos otimizados da Deepseek ou das alternativas favoráveis ao custo do Alibaba, as empresas de IA estão indo além do tamanho do modelo e focando na eficiência a longo prazo.