Le géant chinois de la technologie Tencent remet en question la domination occidentale dans la traduction de l’IA, publiant deux modèles open source qui surpassent les leaders de l’industrie comme Google Translate et GPT-4. Annoncées le 1er septembre, les modèles Hunyuan-MT-7B et Hunyuan-MT-Chimera-7B ont dominé le prestigieux atelier de traduction du WMT2025.

Ils ont remporté 30 des 31 compétitions qu’ils ont participées. Avec seulement 7 milliards de paramètres, les modèles offrent des performances de pointe dans un package efficace sur le calcul. En les rendant publiquement à la disposition du Github et à l’étreinte, Tencent vise à accélérer l’innovation et à garantir une position clé dans le paysage mondial de l’IA.

Cette décision fournit des outils puissants et accessibles pour les développeurs du monde entier. Le communiqué souligne une poussée stratégique pour démocratiser l’IA de haute performance, mettant les capacités de traduction d’élite entre les mains d’une communauté plus large au milieu de la compétition domestique et mondiale. Dominant les références WMT2025

Tencent Les nouveaux modèles ont offert une performance étonnante lors de l’atelier de traduction automatique (WMT), un événement leader pour évaluer ces systèmes. Les modèles Hunyuan ont pris la première place dans 30 des 31 paires de langues, un balayage quasi total qui signale un changement dans le paysage concurrentiel.

Les modèles de paramètre 7B ont prouvé que la taille n’était pas tout. Ils ont systématiquement surpassé les systèmes propriétaires beaucoup plus importants, notamment Google Translate, GPT-4.1, Claude 4 Sonnet et Gemini 2.5 Pro. Ils ont également dépassé les systèmes spécialisés comme la série Tower Plus paramètres de 72 milliards de dollars par des marges importantes.

Cette réalisation met en évidence la puissance de l’innovation architecturale sur une échelle pure. Pour les entreprises et les développeurs, cela se traduit directement par des coûts d’inférence inférieurs, des besoins matériels réduits et une meilleure accessibilité pour les organisations sans grappes GPU massives.

Les modèles prennent en charge la traduction bidirectionnelle dans 33 langues, y compris les grandes comme chinois et anglais, et les moins courantes telles que les tchèques et les islandais. L’accent est mis sur les langues minoritaires chinoises comme le kazakh et l’athoure, présentant un engagement envers la diversité linguistique.

Sous le capot: un pipeline à cinq étages et une fusion de chiméra

Le succès des modèles découle d’un processus d’entraînement à cinq étages sophistiqué. Le pipeline commence par la pré-formation du texte général, suivi d’un raffinement sur des données spécifiques à la traduction. Il passe ensuite à un réglage fin supervisé, à l’apprentissage du renforcement et à une étape de renforcement «faible à faible».

Ce processus méticuleux garantit une grande précision et une maîtrise. Une innovation remarquable est le modèle Hunyuan-MT-Chimera-7B. Décrit comme un modèle «ensemble» ou «fusion», il intègre plusieurs sorties de traduction de différents systèmes pour générer un seul résultat supérieur. Cette méthode a amélioré les performances de test en moyenne de 2,3%.

Le rapport technique de Tencent détaille un ensemble de données de formation qui comprenait 1,3 billion de jetons pour les langues minoritaires. Cette vaste fondation de données organisée est essentielle à la capacité des modèles à gérer un langage nuancé et culturellement spécifique à ce que les ensembles de données génériques manquent souvent.

open-source pour tous: une version stratégique sur Github et le visage étreint

dans une décision conçue pour nourrir l’adoption répandue, Tencent a fait à la fois les modèles et leur code source ouverte. Les développeurs peuvent accéder à la Hunyuan-mt-7b modèle Et le Sur l’étreinte Face, avec la base de code complète disponible sur GitHub.

Cette approche ouverte contraste avec les modèles fermés et propriétaires de concurrents comme Openai et Google. Il permet aux chercheurs et aux entreprises de s’appuyer sur le travail de Tencent, intégrant la traduction avancée dans leurs propres applications sans licence restrictive ou coûts d’API.

La décision d’ouverture est un signal clair de l’ambition de Tencent de devenir un acteur central de l’écosystème mondial de l’IA. En autonomisant la communauté, l’entreprise peut stimuler l’innovation et établir son architecture en tant que norme de l’industrie, créant une boucle de rétroaction qui pourrait accélérer les améliorations.

Partie d’une image plus grande: la stratégie AI diversifiée de Tencent

Cette version n’est pas un événement isolé, mais un élément clé de la stratégie AI multi-réparti et multiprue de Tencent. L’entreprise construit un portefeuille de modèles spécialisés plutôt qu’un seul monolithique. Cela inclut Hunyuan Turbo S pour les réponses instantanées et Hunyuan T1 pour un raisonnement complexe.

Cette approche diversifiée permet à Tencent d’adapter des solutions pour des cas d’utilisation spécifiques, des chatbots destinés aux clients à l’analyse des données internes. Il reflète également une focalisation pragmatique sur l’efficacité.

Lors d’un récent appel de bénéfices, le directeur de la stratégie de Tencent a expliqué: «Les entreprises chinoises hiérarchisent généralement l’efficacité et l’utilisation efficace de la technologie des serveurs GPU. Des architectures comme Deepseek montre une approche flexible et adaptative. Au fur et à mesure que le marché de l’IA évolue au milieu des pressions réglementaires et des contraintes matérielles, le modèle pragmatique de Tencent, axé sur l’efficacité, pourrait s’avérer très résilient.