gigantul tehnologic chinez Tencent contestă o dominare occidentală în traducerea AI, eliberând două modele open-source care depășesc lideri din industrie precum Google Translate și GPT-4. Anunțate la 1 septembrie, modelele Hunyuan-MT-7B și Hunyuan-Mt-Chimera-7B au dominat prestigiosul atelier de traducere WMT2025.

au câștigat 30 din 31 de competiții la care au intrat. Cu doar 7 miliarde de parametri, modelele oferă performanțe de ultimă generație într-un pachet eficient din punct de vedere al calculului. Prin faptul că îi face public disponibil pe Github și Hugging Face, Tencent își propune să accelereze inovația și să asigure o poziție cheie în peisajul AI global.

Această mișcare oferă instrumente puternice și accesibile pentru dezvoltatorii din întreaga lume. Versiunea subliniază o apăsare strategică pentru democratizarea AI de înaltă performanță, punând capacități de traducere de elită în mâinile unei comunități mai largi pe fondul concurenței interne și globale. Performanță: dominarea de referințe WMT2025

noile modele ale Tencent au oferit o performanță uimitoare la atelierul de traducere automată (WMT), un eveniment de frunte pentru evaluarea unor astfel de sisteme. Modelele Hunyuan au ocupat primul loc în 30 din 31 de perechi de limbi, o măturare aproape totală care semnalează o schimbare în peisajul competitiv.

Modelele cu parametri 7B au dovedit că dimensiunea nu este totul. Aceștia au depășit în mod constant sisteme proprii mult mai mari, inclusiv Google Translate, GPT-4.1, Claude 4 Sonet și Gemini 2.5 Pro. De asemenea, au depășit sisteme specializate, cum ar fi seria de 72 de miliarde de parametri Plus, prin marje semnificative.

Această realizare evidențiază puterea inovației arhitecturale pe scară pură. Pentru întreprinderi și dezvoltatori, acest lucru se traduce direct la costuri de inferență mai mici, nevoile de hardware reduse și o accesibilitate mai mare pentru organizații fără grupuri de GPU masive.

Modelele susțin traduceri în două sensuri în 33 de limbi, inclusiv cele majore precum chineză și engleză, și cele mai puțin obișnuite, cum ar fi ceh și islandeză. Un accent esențial este pe limbile minoritare chineze precum Kazah și Uyghur, prezentând un angajament față de diversitatea lingvistică.

sub capotă: o conductă de cinci etape și o fuziune de chimera

succesul modelelor provine dintr-un proces sofisticat de antrenament de cinci etape. Conducta începe cu pregătirea generală a textului, urmată de perfecționarea datelor specifice traducerii. Apoi se deplasează la reglarea fină supravegheată, învățarea de armare și o etapă finală de întărire „slabă-puternică”.

Acest proces meticulos asigură o precizie și fluență ridicată. O inovație deosebită este modelul Hunyuan-Mt-Chimera-7B. Descris ca un model de „ansamblu” sau „fuziune”, integrează mai multe ieșiri de traducere din diferite sisteme pentru a genera un singur rezultat superior. Această metodă a îmbunătățit performanța testului cu o medie de 2,3%.

Raportul tehnic al Tencent detaliază un set de date de instruire care a inclus 1,3 trilioane de jetoane doar pentru limbile minoritare. Această vast fundație de date curată este esențială pentru capacitatea modelelor de a gestiona un limbaj nuanțat și specific cultural, pe care seturile de date generice le lipsește adesea.

open-source pentru toate: o versiune strategică pe Github și îmbrățișarea Face

într-o mișcare concepută pentru a încuraja adoptarea pe scară largă, tencentul a făcut ambele modele și codul lor sursă, conceput pentru a încuraja o sursă de adoptare pe scară largă, a făcut ca ambele modele să facă o mișcare pe care să o încurajeze. Developers can access the Hunyuan-MT-7B model and the unique Chimera Versiune Pe Hugging Face, cu codul complet disponibil pe Github.

Această abordare deschisă contrastează cu modelele închise, proprietate de la concurenți precum OpenAI și Google. Permite cercetătorilor și întreprinderilor să se bazeze pe activitatea lui Tencent, integrând traducerea avansată în propriile aplicații, fără costuri de licență restrictivă sau API.

Decizia de a opera open-source este un semnal clar al ambiției lui Tencent de a deveni un jucător central în ecosistemul AI global. Prin abilitarea comunității, compania poate conduce inovația și își poate stabili arhitectura ca standard de industrie, creând o buclă de feedback care ar putea accelera îmbunătățiri.

parte a unei imagini mai mari: Strategia AI diversificată a Tencent

Această versiune nu este o strategie AI izolată, ci o componentă cheie a strategiei AI multipliged. Compania construiește un portofoliu de modele specializate, mai degrabă decât unul singur, monolitic. Aceasta include Hunyuan Turbo s pentru răspunsuri instantanee și Hunyuan T1 pentru raționamente complexe.

Această abordare diversificată permite lui Tencent să adapteze soluții pentru cazuri de utilizare specifice, de la chatbots orientate către clienți la analiza datelor interne. De asemenea, reflectă o concentrare pragmatică asupra eficienței.

În timpul unui apel recent de câștiguri, directorul de strategie al Tencent a explicat: „Companiile chineze sunt în general prioritizate eficiența și utilizarea-utilizarea eficientă a serverelor GPU. Și asta nu afectează în mod necesar eficiența finală a tehnologiei care este dezvoltată. Arhitecturi precum Deepseek arată o abordare flexibilă și adaptivă. Pe măsură ce piața AI evoluează în mijlocul presiunilor de reglementare și a constrângerilor hardware, modelul pragmatic, eficiența-eficiență, s-ar putea dovedi extrem de rezistent.

Categories: IT Info