Chinese AI startup Z.AI ay tumataas ang mabangis na digmaan ng presyo ng bansa kasama ang mga bagong modelo ng GLM-4.5. Ang kumpanya, na dating Zhipu, ay inihayag ang open-source release noong Lunes. Pinoposisyon nito ang mga bagong modelo na mas mura kaysa sa mga mula sa Key Rival Deepseek. Ang mga sistemang ito ay maaaring magsagawa ng mga tagubilin sa maraming hakbang. Ang hakbang na ito ay tumindi ang kumpetisyon sa sektor ng tech ng China, kung saan ang mga kumpanya ngayon ay nakikipaglaban sa parehong kapangyarihan at presyo. Ang mga modelo ay magagamit sa pamamagitan ng platform ng Z.AI, isang API, at bilang open-weights sa yakap na mukha . Taas=”626″src=”data: imahe/svg+xml; nitro-empty-id=mtc5mzoxmtm3-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nz giihdpzhropsixmjgwiibozwlnahq9ijc3ocigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>
sa ilalim ng hood: isang modelo ng ahente na itinayo para sa kahusayan Ayon sa kumpanya ng teknikal na post sa blog , ang mga modelo ay idinisenyo upang pag-isahin ang pangangatuwiran, pag-cod, at paggamit ng tool ng ahente, na pinapayagan silang walang tigil na pagbagsak ng mga kahilingan, bumubuo ng isang plano, at magsagawa ng mga tasa nang walang tuluy-tuloy na patnubay ng tao. Ang pamamaraang ito ay naglalayong masiyahan ang lalong kumplikadong mga kinakailangan ng mga umuusbong na aplikasyon ng ahente. Habang naglalaman ito ng isang napakalaking 355 bilyon na kabuuang mga parameter, isinaaktibo lamang nito ang isang 32-bilyong-parameter na subset para sa anumang naibigay na gawain. Inilabas din ni Z.AI ang isang mas maliit na variant ng GLM-4.5-AIR na may 106 bilyong kabuuang mga parameter at 12 bilyong aktibo para sa higit na kahusayan. Sa isang madiskarteng pag-alis mula sa mga karibal tulad ng Deepseek-V3 at Kimi K2, inuna ng Z.AI ang isang”mas malalim, hindi mas malawak”na arkitektura, na pinatataas ang bilang ng mga layer upang mapahusay ang pangunahing kapasidad ng pangangatuwiran ng modelo. Ang modelo ay gumagamit ng nakapangkat-query na pansin at isang mas mataas na bilang ng mga ulo ng pansin upang mapabuti ang pagganap sa mga pangangatuwiran na benchmark. Upang matiyak ang katatagan sa panahon ng napakalaking pagtakbo ng pagsasanay, na kasangkot sa isang 15-trilyong-token general corpus na sinusundan ng isang 7-trilyon-token code at pangangatuwiran na corpus, ginamit ng koponan ang isang Muon Optimizer at QK-norm upang patatagin ang mga log sa pansin. Nagtatampok din ang modelo ng katutubong function na pagtawag at isang haba ng konteksto ng 128K, kapwa kritikal para sa pagpapagana ng mga advanced na kakayahan ng ahente. Ang hardware na ito ay ang bersyon na kinokontrol ng pag-export na idinisenyo para sa merkado ng Tsino, at ang kahusayan ng modelo ay binibigyang diin ang isang madiskarteng pokus sa paghahatid ng mataas na pagganap sa loob ng mga makabuluhang hadlang sa hardware. Ang kumbinasyon ng advanced na arkitektura, napakalaking-scale na pagsasanay, at mga posisyon sa pag-optimize ng hardware GLM-4.5 bilang isang mabisang bagong pagpasok sa pandaigdigang AI landscape. Mga modelo ng open-source mula sa OpenAi, Anthropic, at Google. Ang mas maliit na GLM-4.5-air ay gumaganap din ng malakas, na nakakuha ng ikaanim na posisyon. Ang data na ito ay nagmumungkahi na ang Z.AI ay matagumpay na nakabuo ng isang modelo na nakikipagkumpitensya sa hangganan ng kakayahan ng AI, na hinahamon ang itinatag na hierarchy. Sa-Bench at Berkeley function na tumatawag sa leaderboard (BFCL-V3), ang pagganap nito ay tumutugma sa Claude 4 Sonnet. Ang modelo din ay higit sa kumplikadong mga gawain sa pag-browse sa web, na higit na nagbabago ng Claude-4-opus sa mapaghamong benchmark ng Browsecomp. Ang mode na”pag-iisip”ay nagpapatunay na epektibo sa advanced na pangangatuwiran, nakamit ang isang marka ng 91.0 sa AIME24 Math Competition Test at 79.1 sa GPQA graduate-level na tanong-sagot na benchmark. Grok 4 mmlu Pro 84.6 81.4 85.3 87.3 86.2 84.9 84.5 86.6 Aime24 91.0 89.4 90.3 75.7 88.7 89.3 94.1 94.3 Math 500 98.2 98.1 99.2 98.2 96.7 98.3 98.0 99.0 SCICODE 41.7 37.3 41.0 39.8 42.8 40.3 42.9 45.. Sa isang direktang, multi-round na pagsusuri ng tao gamit ang isang pamantayang balangkas ng coding, nakamit ng GLM-4.5 ang isang 53.9% na rate ng panalo laban sa Kimi K2 ng Moonshot at pinangungunahan ang Qwen3-coder ng Alibaba na may 80.8% na rate ng tagumpay. Iniuulat din ni Z.AI ang isang rate ng tagumpay ng tool na 90.6%, ang pinakamataas sa mga kapantay nito, na nagpapakita ng higit na pagiging maaasahan para sa mga gawain ng ahente ng ahente. Ang buong mga tilapon para sa mga pagsubok na ito ay ang ginawang publiko para sa pagsusuri ng komunidad . Gemini 2.5 Pro Deepseek-R1-0528 Kimi K2 SWE-Bench Verified1 64.2 57.6 69.1 48.6 67.8 70.4 49.0 41.4 65.4 Terminal-Bench2 37.5 30 30.2 30.3 43.2 35.5 25.3 17.5 25.0 Ang isang pagsusuri sa hangganan ng Pareto na isinagawa ng Z.AI ay nagpapakita na ang parehong GLM-4.5 at GLM-4.5-AIR ay nakaupo sa pinakamainam na hangganan ng trade-off para sa pagganap kumpara sa scale ng modelo. Ipinapahiwatig nito na nakamit ng mga modelo ang kanilang mga top-tier na resulta nang walang computational overhead ng mga katulad na makapangyarihang mga kakumpitensya, pinalakas ang estratehikong pokus ng kumpanya sa paghahatid ng parehong mataas na pagganap at pagiging epektibo ng gastos. Ang Z.AI ay tahasang na-undercutting ang karibal nito sa presyo. Ang kumpanya ay singilin ang 11 sentimo bawat milyong mga token ng pag-input para sa GLM-4.5, kumpara sa 14 na sentimo na singil ng Deepseek para sa modelo ng R1 nito. Ang Deepseek mismo ay nakakuha ng katanyagan sa pamamagitan ng pag-aalok ng mga serbisyo sa isang bahagi ng gastos ng mga modelo ng OpenAi. Ngayon, pinatindi ng Z.AI ang digmaang ito ng presyo, ang pagpilit sa mga kumpanya na makipagkumpetensya sa kahusayan, hindi lamang sa hilaw na kapangyarihan. Ang Minefield
Ang kumpanya, sa ilalim ng dating pangalan na zhipu, ay