Ang higanteng tech na Tsino na si Tencent ay hinahamon ang pangingibabaw sa Kanluran sa pagsasalin ng AI, na naglalabas ng dalawang mga open-source na mga modelo na higit sa mga pinuno ng industriya tulad ng Google Translate at GPT-4. Inihayag noong Setyembre 1, ang mga modelo ng Hunyuan-MT-7B at Hunyuan-MT-Chimera-7B ay namuno sa prestihiyosong WMT2025 na pag-aayos ng pagsasalin. Sa pamamagitan lamang ng 7 bilyong mga parameter, ang mga modelo ay nag-aalok ng pagganap ng state-of-the-art sa isang computationally mahusay na pakete. Sa pamamagitan ng paggawa ng mga ito sa publiko na magagamit sa GitHub at Hugging Face, naglalayong si Tencent na mapabilis ang pagbabago at ma-secure ang isang pangunahing posisyon sa pandaigdigang AI landscape. Ang pagpapalaya ay binibigyang diin ang isang madiskarteng pagtulak upang i-democratize ang mataas na pagganap na AI, na inilalagay ang mga piling kakayahan sa pagsasalin sa mga kamay ng isang mas malawak na pamayanan sa gitna ng mabangis na domestic at global na kumpetisyon. Pagganap: Pinangungunahan ang mga benchmark ng WMT2025 Ang mga modelo ng Hunyuan ay kumuha ng tuktok na puwesto sa 30 sa 31 na mga pares ng wika, isang malapit na total na walis na nagpapahiwatig ng isang paglipat sa mapagkumpitensyang tanawin. Patuloy silang naipalabas ang mas malaking mga sistema ng pagmamay-ari, kabilang ang Google Translate, GPT-4.1, Claude 4 Sonnet, at Gemini 2.5 Pro. Nalampasan din nila ang mga dalubhasang sistema tulad ng 72-bilyong-parameter tower plus series sa pamamagitan ng mga makabuluhang margin. Para sa mga negosyo at developer, ito ay isinasalin nang direkta sa mas mababang mga gastos sa pag-iintindi, nabawasan ang mga pangangailangan ng hardware, at higit na pag-access para sa mga samahan na walang napakalaking kumpol ng GPU. Ang isang pangunahing pokus ay sa mga wikang minorya ng Tsino tulad ng Kazakh at Uyghur, na nagpapakita ng isang pangako sa pagkakaiba-iba ng lingguwistika. Ang pipeline ay nagsisimula sa pangkalahatang pre-pagsasanay ng teksto, na sinusundan ng pagpipino sa data na partikular sa pagsasalin. Pagkatapos ay gumagalaw ito sa pinangangasiwaan na pinong pag-tune, pag-aaral ng pampalakas, at isang pangwakas na”mahina-sa-malakas”na hakbang na pampalakas. Ang isang makabagong pagbabago ay ang modelo ng Hunyuan-MT-Chimera-7B. Inilarawan bilang isang”ensemble”o”fusion”na modelo, isinasama nito ang maraming mga output ng pagsasalin mula sa iba’t ibang mga system upang makabuo ng isang solong, higit na mahusay na resulta. Ang pamamaraang ito ay pinahusay na pagganap ng pagsubok sa pamamagitan ng average na 2.3%. Ang malawak, curated data foundation na ito ay kritikal sa kakayahan ng mga modelo upang mahawakan ang nuanced at tiyak na kultura na tiyak na mga datasets na madalas na makaligtaan. Maaaring ma-access ng mga nag-develop ang hunyuan-mt-7b model at ang