Les chercheurs de zoom ont introduit une nouvelle technique d’incitation appelée chaîne de projet (COD) qui pourrait fondamentalement changer comment les modèles d’intelligence artificielle traitent les tâches de raisonnement.
En repensant comment l’IA génère des réponses, la COD réduit l’utilisation token jusqu’à 92% et réduit les coûts opérationnels de 90%. Au lieu de s’appuyer sur des explications verbales, comme on le voit dans les modèles de raisonnement d’IA traditionnels, cette méthode oblige l’IA à être structurée et efficace tout en maintenant la précision.
Cette percée arrive à un moment où les modèles de grande langue (LLMS) sont des quantités croissantes de puissance de calcul, faisant de l’efficacité une préoccupation croissante.
La question est maintenant de savoir si des techniques comme la DCO influenceront l’industrie plus large, en particulier en tant qu’acteurs majeurs comme Openai, Google, Microsoft et d’autres font face à une pression de montage pour réduire les coûts.
Comment la chaîne de travaux de projet
Alors que le COT s’est avéré efficace pour améliorer le raisonnement logique, il augmente considérablement l’utilisation de jetons, entraînant des coûts plus élevés et des temps de réponse plus lents. COD cherche à aborder ces inefficacités en appliquant une approche minimaliste des étapes de raisonnement intermédiaire.
Le principe central derrière la COD est d’imiter comment les humains traitent les informations lors de la résolution de problèmes complexes. Au lieu de générer des explications détaillées à chaque étape, COD demande au modèle de produire uniquement des résultats intermédiaires essentiels-expliquez comment une personne pourrait noter quelques notes clés tout en travaillant à travers un problème. Cette concision structurée permet aux LLMS de maintenir une précision logique tout en réduisant considérablement la génération de jetons inutile.
Contrairement aux techniques précédentes axées Réflexions (CCOT) ou raisonnement de token-budget, COD ne s’appuie pas sur des budgets de jetons prédéterminés pour une tâche entière. Au lieu de cela, il applique une contrainte dynamique et par étape, permettant des étapes de raisonnement sans restriction tout en maintenant la concision globale
pourquoi l’efficacité de l’IA est plus que jamais
Les modèles AI reposent sur des jetons-les unités fondamentales de traitement de texte-pour générer des réponses. Plus un modèle utilise des jetons, plus le coût de fonctionnement est élevé.
Des techniques telles que la conviction de la chaîne de pensée (COT) ont été développées pour améliorer la capacité de l’IA à gérer les tâches complexes en encourageant le raisonnement étape par étape. Cependant, cette approche augmente considérablement l’utilisation des jetons, ce qui rend les opérations de l’IA de plus en plus coûteuses.
La méthode COD de Zoom introduit une stratégie différente. Plutôt que d’avoir une IA articuler chaque étape avec une verbosité excessive, la COD optimise la structure des réponses, garantissant une profondeur logique tout en minimisant la production inutile.
Les implications pourraient être vastes, en particulier pour les industries qui dépendent de l’automatisation axée sur l’IA, telles que l’entreprise AI, la finance et le service client.
Efficacité
L’analyse comparative étendue a démontré que la DCO peut correspondre ou dépasser le COT en précision tout en réduisant considérablement l’utilisation de jetons. Dans les expériences à travers les tâches de raisonnement arithmétique, bon sens et symbolique, la DCO a utilisé aussi peu que 7,6% des jetons requis par le COT, ce qui réduit considérablement les coûts de calcul.
En déplaçant les LLMS loin d’un raisonnement excessivement verbeux vers une méthode de rédaction structurée et minimaliste. Pour influencer les stratégies de déploiement de l’IA dans plusieurs domaines, en particulier dans les domaines où la rentabilité et la réduction de la latence sont des préoccupations critiques.
Le document de recherche sur le zoom présente des évaluations empiriques dans plusieurs catégories de tâches, révélant comment COD fonctionne par rapport à la demande standard et au COT. Ensemble de données pour évaluer le raisonnement arithmétique dans les modèles de langage. Les résultats indiquent que bien que le COT atteigne une précision légèrement plus élevée, il le fait à un coût de calcul massif. En revanche, COD fournit un niveau de correction quasi-équivalent tout en abaissant considérablement la consommation de jetons.
Source: Zoom
Pour le raisonnement de bon sens, la COD a été évaluée sur la compréhension des dattes de Big Bench et la compréhension des sports. Les résultats montrent que la COD réduit non seulement les exigences de calcul mais surpasse également le COT dans certains cas, démontrant son efficacité dans les applications pratiques.
source: Zoom
Les tâches de raisonnement symbolique, telles que la prédiction de retournement des pièces, ont testé l’efficacité de la DCO dans des tâches logiques hautement structurées. L’évaluation a confirmé des améliorations substantielles d’efficacité.
Limitations sur les petits modèles
Bien que la COD s’avère très efficace sur les LLM à grande échelle, il fonctionne moins efficacement sur les petits modèles (≤3B paramètres) en raison de l’absence d’exposition à la formation au raisonnement de style COD. Les résultats sur QWEN2.5 (1,5b et 3b), LLAMA 3.2 (3b) et Zoom-SLM (2.3B) mettent en évidence un écart de performance plus significatif par rapport au COT.
source: Zoom
Ces résultats suggèrent que les petits modèles nécessitent un réglage fin avec des données de style morue pour tirer pleinement parti de ses avantages d’efficacité. Sans adaptation, la perte de précision devient plus prononcée, limitant l’applicabilité immédiate de la DCO pour les systèmes d’IA légers.
OpenAI ajuste sa stratégie de modèle d’IA
Alors que des entreprises comme Zoom travaillent sur le raffinage dans l’efficacité de l’IA, OpenAI est actuellement en restructuration de sa ligne de modèle. Le 13 février 2025, la société a annoncé qu’elle interrompait son modèle autonome O3 et consoliderait ses capacités de raisonnement structuré en GPT-5.
La décision a été en grande partie une réponse à une confusion croissante parmi les utilisateurs sur la sélection en expansion d’Openai de modèles AI. GPT-5, se concentrant sur plusieurs options de modèle à un système d’IA plus rationalisé. Avant sa sortie, le modèle sous-jacent avec le nom de code Orion devait être publié sous le nom de GPT-5.
Ses performances décevantes par rapport aux modèles de raisonnement moderne comme Openai d’O3-MINI, GROK 3 et Claude 3.7 Sonnet semble avoir influencé cette décision.
Microsoft Offre gratuitement un raisonnement AI avancé
Plus tard, Microsoft a franchi une étape décisive qui a encore fait pression sur le modèle commercial d’Openai. Microsoft a récemment annoncé que son assistant Copilot offrirait désormais gratuitement Openai O3-MinI-High, supprimant un mur payant qui avait auparavant limité un accès au modèle de raisonnement plus avancé.
Avant cette décision, l’Openai d’O3-Mini-High a été disponible unique monétiser ses modèles d’IA les plus compétents. Ce changement souligne également pourquoi les percées d’efficacité comme la morue de Zoom deviennent de plus en plus pertinentes.
Deepseek se déplace rapidement pour défier Openai
En attendant, la compétition dans l’espace d’IA a continué à s’intensifier. Le 26 février 2025, le laboratoire de l’IA chinois Deepseek a annoncé qu’elle accélérait la sortie de son modèle R2. Initialement prévu pour mai 2025, le lancement du modèle a été déplacé pour contrer la domination de l’Openai, Alibaba et Google.
La montée de Deepseek a coïncidé avec une augmentation du développement de l’IA en Chine, où les entreprises recherchent des alternatives aux modèles développés par les États-Unis. Cependant, l’entreprise fait face à des défis au-delà
Alors que OpenAI et Deepseek affinent leurs stratégies de raisonnement en IA, d’autres sociétés se concentrent sur différentes approches de réduction des coûts.
Alibaba vient d’introduire QWQ-32B, un modèle d’IA open source conçu pour fournir un raisonnement élevé avec des coûts de calcul réduits. La version positionne Alibaba en tant que concurrent direct d’Openai et Deepseek, en particulier pour les entreprises à la recherche de solutions d’IA abordables.
Amazon serait également entré dans la course d’efficacité de l’IA mais avec une stratégie différente. La société développe Nova AI, un modèle propriétaire qui devrait être lancé d’ici juin 2025.
Contrairement à l’approche open-source d’Alibaba, Amazon intégre NOVA AI directement dans AWS, renforçant ses offres de services cloud AI et probablement le plan payant juste annoncé pour la version AI de l’industrie AI Alexa, Alexa +.
Les entreprises expérimentent différentes stratégies. Que ce soit grâce à l’invitation structurée de COD, les modèles optimisés de Deepseek ou les alternatives coûteuses d’Alibaba, les entreprises d’IA vont au-delà de la taille du modèle et se concentrent sur l’efficacité à long terme.