Alibaba a dévoilé son modèle de raisonnement QWQ-32B, peu de temps après la libération de QWQ-Max-Preview. Les deux modèles se concentrent sur la fourniture de solutions abordables mais hautes performances.
QWQ-32B, lancée en novembre 2024 dans une version d’aperçu, a déjà attiré l’attention pour ses capacités de raisonnement logique, de résolution de problèmes complexes et de codage avancé. En tant qu’acteur clé dans la démocratisation de l’accès à des performances haute performance.
En outre, la récente version de QWQ-Max-Preview améliore davantage la poussée d’Alibaba dans l’espace d’IA en offrant des solutions efficaces aux entreprises qui ont besoin de modèles de raisonnement évolutifs: QWQ-32B et QWQ-Max
, tandis que les deux modèles sont conçus pour améliorer les capabas et des références de performances.
Les deux techniques de raisonnement de la chaîne de pensée (COT), mais ils les implémentent de la chaîne de pensée (COT), mais ils les implémentent de manière légèrement différents:
qwq-max-preview incorporent un «mode de réflexion» unique qui peut être activé avec une invite système à l’aide de balises
QWQ-32B utilise également un raisonnement de la chaîne de pensée, mais d’une manière plus rationalisée. Il génère des jetons de sortie d’une manière CO, décomposant les problèmes en sous-tâches gérables et fournissant des explications étape par étape. L’approche de QWQ-32B se concentre sur une analyse efficace et une planification inverse, en travaillant en arrière à partir du résultat souhaité pour identifier les étapes nécessaires.
Alors que les deux modèles utilisent le COT, la mise en œuvre de QWQ-Max est plus explicite et contrôlable via son mode de réflexion, tandis que le COT de QWQ-32B est intégré à son processus de raisonnement général. Les deux approches visent à améliorer les capacités de résolution de problèmes des modèles, en particulier dans des domaines tels que les mathématiques, le codage et les tâches de raisonnement complexes.
malgré sa taille plus petite, il réalise des performances comparables à des modèles beaucoup plus grands comme Deepseek-R1 tout en nécessitant beaucoup moins de ressources de calcul. href=”https://huggingface.co/qwen/qwq-32b”> a une longueur de contexte prolongée de 131 072 jetons et démontre des résultats compétitifs contre les modèles principaux dans sa classe. Les principales différences entre les deux modèles résident dans leur taille, leur architecture, leur approche de formation, la longueur du contexte, les capacités multimodales et les scénarios de déploiement.
QWQ-MAX-PREVIEW est conçu pour les tâches multimodales à haute performance, tandis que QWQ-32B est optimisée pour les modèles de efficacité et peut être déployé sur des dispositifs limités pour des ressources de calcul. Avance des capacités de raisonnement en IA, avec QWQ-MAX-Preview se concentrant sur les performances haut de gamme et QWQ-32B offrant un raisonnement efficace sous une forme plus compacte.