Gergasi teknologi Cina Tencent mencabar dominasi Barat dalam terjemahan AI, melepaskan dua model sumber terbuka yang mengalahkan pemimpin industri seperti Google Translate dan GPT-4. Diumumkan pada 1 September, model Hunyuan-MT-7b dan Hunyuan-MT-Chimera-7B menguasai bengkel terjemahan WMT2025 yang berprestij.
Mereka memenangi 30 daripada 31 pertandingan yang mereka masukkan. Dengan hanya 7 bilion parameter, model menawarkan prestasi terkini dalam pakej yang cekap. Dengan menjadikannya secara terbuka di Github dan memeluk wajah, Tencent bertujuan untuk mempercepatkan inovasi dan menjamin kedudukan utama dalam landskap AI global.
Langkah ini menyediakan alat yang kuat dan boleh diakses untuk pemaju di seluruh dunia. Pelepasan ini menggariskan dorongan strategik untuk mendemokrasikan AI berprestasi tinggi, meletakkan keupayaan terjemahan elit ke tangan komuniti yang lebih luas di tengah-tengah persaingan domestik dan global yang sengit. Model, Prestasi Besar: Menguasai penanda aras WMT2025
model baru Tencent menyampaikan prestasi yang menakjubkan di bengkel pada Terjemahan Mesin (WMT), acara utama untuk menilai sistem sedemikian. Model Hunyuan mengambil tempat teratas dalam 30 daripada 31 pasangan bahasa, sapuan hampir total yang menandakan peralihan dalam landskap yang kompetitif. Mereka secara konsisten mengatasi sistem proprietari yang lebih besar, termasuk Google Translate, GPT-4.1, Claude 4 Sonnet, dan Gemini 2.5 Pro. Mereka juga melepasi sistem khusus seperti siri 72 bilion-parameter Plus dengan margin yang signifikan.
Pencapaian ini menyoroti kuasa inovasi seni bina ke atas skala semata-mata. Bagi perniagaan dan pemaju, ini diterjemahkan secara langsung kepada kos kesimpulan yang lebih rendah, mengurangkan keperluan perkakasan, dan kebolehcapaian yang lebih besar untuk organisasi tanpa kelompok GPU yang besar. Tumpuan utama adalah pada bahasa minoriti Cina seperti Kazakh dan Uyghur, mempamerkan komitmen untuk kepelbagaian linguistik. Paip bermula dengan pra-latihan teks umum, diikuti dengan penghalusan pada data khusus terjemahan. Ia kemudiannya bergerak ke penalaan yang diselia, pembelajaran tetulang, dan langkah pengukuhan”lemah-kuat”. Inovasi yang menonjol ialah model Hunyuan-Mt-Chimera-7B. Digambarkan sebagai model”ensemble”atau”fusion”, ia mengintegrasikan pelbagai output terjemahan dari sistem yang berbeza untuk menghasilkan hasil tunggal, unggul. Kaedah ini meningkatkan prestasi ujian dengan purata 2.3%.
Laporan teknikal Tencent memperincikan dataset latihan yang termasuk token 1.3 trilion untuk bahasa minoriti sahaja. Yayasan data yang luas dan terikat ini sangat penting untuk keupayaan model untuk mengendalikan bahasa khusus dan budaya yang khusus yang sering dilewatkan oleh dataset generik. Pemaju boleh mengakses model hunyuan-mt-7b dan