Permulaan AI Cina Z.AI semakin meningkat perang harga AI yang sengit negara dengan model GLM-4.5 yang baru. Syarikat itu, yang dahulu Zhipu, mengumumkan pelepasan sumber terbuka pada hari Isnin. Ia meletakkan model-model baru yang lebih murah daripada mereka dari saingan utama DeepSeek.

Dibina untuk tugas-tugas”agentik”yang kompleks, pelepasan mensasarkan peralihan industri ke arah AI autonomi. Sistem ini boleh melaksanakan arahan pelbagai langkah. Langkah ini meningkatkan persaingan dalam sektor teknologi China, di mana firma-firma kini bertarung dengan kuasa dan harga.

Pelancaran ini juga berlaku kerana Z.AI beroperasi di bawah sekatan A.S., sambil menambah lapisan geopolitik ke persaingan. Model-model ini boleh didapati melalui platform Z.AI, API, dan sebagai

Di bawah tudung: Model agentik yang dibina untuk kecekapan

Z.AI’s New GLM-4.5 keluarga akan direka bentuk untuk gelombang aplikasi AI yang seterusnya, bergerak melampaui arahan mudah untuk merangkul rangka kerja”agentik”yang lebih canggih. Menurut syarikat itu posting blog teknikal , model-model ini direka untuk menyatukan penalaran, pengekodan, dan penggunaan alat yang agensi, yang membolehkan mereka memecah permintaan kompleks secara autonomi, Pendekatan ini bertujuan untuk memenuhi keperluan yang semakin rumit dalam aplikasi agensi yang baru muncul.

GLM-4.5 perdana adalah model campuran yang kuat (MOE), pilihan reka bentuk yang meningkatkan kecekapan pengiraan. Walaupun ia mengandungi 355 bilion parameter besar, ia hanya mengaktifkan subset 32 bilion parameter untuk sebarang tugas tertentu. Z.AI juga mengeluarkan varian GLM-4.5-udara yang lebih kecil dengan 106 bilion parameter dan 12 bilion yang aktif untuk kecekapan yang lebih besar. Dalam pemergian strategik dari saingan seperti DeepSeek-V3 dan Kimi K2, Z.AI mengutamakan seni bina yang”lebih mendalam, tidak lebih luas”, meningkatkan bilangan lapisan untuk meningkatkan keupayaan penalaran utama model.

Model ini menggunakan perhatian berkumpulan dan bilangan kepala perhatian yang lebih tinggi untuk meningkatkan prestasi penanda aras penalaran. Untuk memastikan kestabilan semasa latihan besar-besarannya, yang melibatkan Corpus Jeneral yang disusun 15-trillion diikuti oleh kod 7-trilion yang dimakan dan korpus pemikiran, pasukan itu menggunakan pengoptimasi muon dan qk-norm untuk menstabilkan logit perhatian. Model ini juga mempunyai panggilan fungsi asli dan panjang konteks 128K, kedua-duanya kritikal untuk membolehkan kebolehan agensi yang maju.

Hebatnya, Z.AI mendakwa model perdana boleh beroperasi pada hanya lapan cip H20 NVIDIA. Perkakasan ini adalah versi terkawal eksport yang direka untuk pasaran China, dan kecekapan model menggariskan tumpuan strategik untuk menyampaikan prestasi tinggi dalam kekangan perkakasan yang ketara. Gabungan seni bina canggih, latihan berskala besar-besaran, dan kedudukan pengoptimuman perkakasan GLM-4.5 sebagai entri baru yang hebat dalam landskap AI global. Model sumber terbuka dari Openai, Anthropic, dan Google. GLM-4.5-Air yang lebih kecil juga berfungsi dengan kuat, menjamin kedudukan keenam. Data ini menunjukkan bahawa Z.AI telah berjaya membangunkan model yang bersaing di sempadan keupayaan AI, mencabar hierarki yang ditubuhkan. Pada fungsi-Bench dan Berkeley yang memanggil Leaderboard (BFCL-V3), prestasinya sepadan dengan Claude 4 Sonnet. Model ini juga unggul pada tugas pelayaran web yang kompleks, mengatasi Claude-4-Opus pada penanda aras Browsecomp yang mencabar. Mod”pemikiran”nya membuktikan berkesan dalam penalaran lanjutan, mencapai skor 91.0 pada ujian persaingan matematik AIME24 dan 79.1 pada penanda aras pertanyaan siswazah GPQA. Qwen3-235b-berfikir 2507 grok 4 mmlu pro 84.6 81.4 85.3 87.3 86.2 84.9 84.5 86.6 AIME24 91.0 89.4 90.3 75.7 88.7 89.3 94. 98.3 98.0 99.0 Scicode 41.7 37.3 41.0 39.8 42.8 40.3 42.9 45.7 GPQA 79.1 75.0 82.7 79.6 84.4 81.3 81.1 87. (2407-2501) 72.9 70.7 78.4 63.6 80.1 77.0 78.2 81.9 AA-indeks (dianggarkan) 67.7 64.8 70.0 64.4 70.5 68.3 69.4 73.2 Dalam penilaian manusia secara langsung, menggunakan kerangka pengekodan standard, GLM-4.5 mencapai kadar kemenangan 53.9% terhadap Kimi K2 Moonshot dan menguasai Qwen3-Coder Alibaba dengan kadar kejayaan 80.8%. Z.AI juga melaporkan kadar kejayaan yang memanggil alat sebanyak 90.6%, yang tertinggi di kalangan rakan-rakannya, menunjukkan kebolehpercayaan unggul untuk tugas pengekodan agensi. Trajektori penuh untuk ujian ini telah dibuat secara terbuka untuk kajian komuniti Sonnet Gemini 2.5 Pro DeepSeek-R1-0528 Kimi K2 SWE-Bench Verified1 64.2 57.6 69.1 48.6 67.8 70.4 49.0 41.4 65.4 Terminal-Bench2 37.5 30.3 kecekapan. Analisis sempadan Pareto yang dijalankan oleh Z.AI menunjukkan bahawa kedua-dua GLM-4.5 dan GLM-4.5-udara duduk di sempadan perdagangan yang optimum untuk prestasi berbanding skala model. Ini menunjukkan bahawa model-model mencapai hasil teratas mereka tanpa overhead pengiraan pesaing yang sama kuat, mengukuhkan tumpuan strategik syarikat untuk menyampaikan kedua-dua prestasi tinggi dan keberkesanan kos. Z.AI secara eksplisit memotong saingannya dengan harga. Syarikat itu akan mengenakan token input 11 sen bagi GLM-4.5, berbanding dengan 14 sen caj Deepseek untuk model R1.

Harga agresif ini terus menjadi trend yang telah melancarkan sektor AI. DeepSeek sendiri mendapat perhatian dengan menawarkan perkhidmatan di sebahagian kecil daripada kos model Openai. Sekarang, Z.AI semakin menggiatkan perang harga ini, memaksa syarikat untuk bersaing dengan kecekapan, bukan hanya kuasa mentah. Minefield

kemajuan teknikal Z.AI ditetapkan terhadap latar belakang tekanan geopolitik yang sengit. Syarikat itu, di bawah namanya Zhipu, adalah