gjigandi kinez i teknologjisë Tencent po sfidon mbizotërimin perëndimor në përkthimin e AI, duke lëshuar dy modele me burim të hapur që tejkalojnë drejtuesit e industrisë si Google Translate dhe GPT-4. Njoftuar më 1 shtator, modelet Hunyuan-MT-7B dhe Hunyuan-Mt-Chimera-7B mbizotëruan në Punëtorin e Përkthimit prestigjioz WMT2025.

Ata fituan 30 nga 31 garat që hynë. Me vetëm 7 miliardë parametra, modelet ofrojnë performancë më të lartë në një paketë të efektshme llogaritëse. Duke i bërë ato të disponueshme publikisht në GitHub dhe duke përqafuar fytyrën, Tencent synon të përshpejtojë inovacionin dhe të sigurojë një pozicion kryesor në peizazhin global të AI.

Kjo veprim siguron mjete të fuqishme, të arritshme për zhvilluesit në të gjithë botën. Lëshimi nënvizon një shtytje strategjike për të demokratizuar AI me performancë të lartë, duke vendosur aftësi elitare të përkthimit në duart e një komuniteti më të gjerë në mes të konkurrencës së ashpër shtëpiake dhe globale. Performanca: Dominimi i standardeve të WMT2025

Modelet e reja të Tencent mbajtën një performancë mahnitëse në punëtori në Përkthimin e Makinerisë (WMT), një ngjarje kryesore për vlerësimin e sistemeve të tilla. Modelet Hunyuan zunë vendin e parë në 30 nga 31 çifte gjuhësore, një spastrim gati-total që sinjalizon një zhvendosje në peizazhin konkurrues.

Modelet 7b-parametër vërtetuan se madhësia nuk është gjithçka. Ata vazhdimisht tejkaluan sisteme shumë më të mëdha të pronarit, duke përfshirë Google Translate, GPT-4.1, Claude 4 Sonnet dhe Gemini 2.5 Pro. Ata gjithashtu tejkaluan sisteme të specializuara si Seria e Kullës 72 miliardë parametra Plus me kufij të rëndësishëm.

Kjo arritje nxjerr në pah fuqinë e inovacionit arkitektonik në shkallë të pastër. Për bizneset dhe zhvilluesit, kjo përkthehet drejtpërdrejt në uljen e kostove të konkluzionit, uljen e nevojave të harduerit dhe qasje më të madhe për organizatat pa grupe masive GPU. Një fokus kryesor është në gjuhët e pakicave kineze si Kazakh dhe Uyghur, duke treguar një angazhim për diversitetin gjuhësor. Tubacioni fillon me para-trainimin e tekstit të përgjithshëm, i ndjekur nga rafinimi i të dhënave specifike të përkthimit. Pastaj lëviz në rregullimin e rregulluar të mirë, mësimin e përforcimit dhe një hap të përforcimit përfundimtar”të dobët në forca”.

Ky proces i përpiktë siguron saktësi dhe rrjedhshmëri të lartë. Një risi e qëndrueshme është modeli Hunyuan-Mt-Chimera-7B. I përshkruar si një model”ansambël”ose”bashkim”, ai integron rezultate të shumta të përkthimit nga sisteme të ndryshme për të gjeneruar një rezultat të vetëm, superior. Kjo metodë përmirësoi performancën e testit me një mesatare prej 2.3%. Ky themel i gjerë, i kuruar i të dhënave është thelbësor për aftësinë e modeleve për të trajtuar gjuhë të nuancuar dhe kulturore specifike që të dhënat gjenerike shpesh i humbasin. Zhvilluesit mund të hyjnë në hunyuan-mt-7b model dhe