La startup cinese AI Z.AI sta aumentando la feroce guerra ai prezzi della nazione con i suoi nuovi modelli GLM-4.5. La società, precedentemente Zhipu, ha annunciato il rilascio open-source lunedì. Posiziona i nuovi modelli per essere più economici di quelli del rivale chiave DeepSeek.

Costruito per compiti complessi”agenti agenti”, il rilascio si rivolge al passaggio del settore verso l’intelligenza artificiale autonoma. Questi sistemi possono eseguire istruzioni in più fasi. Questa mossa intensifica la concorrenza nel settore tecnologico cinese, in cui le aziende ora combattono sia sul potere che sul prezzo.

Il lancio si verifica anche mentre Z.AI opera sotto sanzioni statunitensi, aggiungendo uno strato geopolitico alla rivalità. I modelli sono disponibili tramite la piattaforma Z.AI, un’API e come open weights su Hugging Face> altezza=”626″src=”Dati: immagine/svg+xml; nitro-empty-id=mtc5mzoxmtm3-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nz GiiHDPZHROPSIXMMJGWIIBOZWLNAHQ9IJC3OCIGEG1SBNM9IMH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>

Under the Hood: un modello agente costruito per l’efficienza

La nuova famiglia GLM-4.5 di Z.AI è progettato per la prossima ondata di applicazioni di intelligenza artificiale, andando oltre il semplice seguire le istruzioni per abbracciare un framework”agente”più sofisticato. Secondo il post di blog di”href=”href=https://z.ai/blog/glm-4.5 dell’azienda=”_ blank”> post sul blog tecnico , i modelli sono progettati per unificare il ragionamento, la codifica e l’uso di strumenti agenti, che consentono loro di abbattere autonomamente richieste complesse, formare un piano e eseguire le attività continue. Questo approccio mira a soddisfare i requisiti sempre più complicati delle applicazioni agenti emergenti.

L’ammiraglia GLM-4.5 è un potente modello di miscela di esperti (MOE), una scelta di progettazione che migliora l’efficienza computazionale. Mentre contiene un enorme parametri totali di 355 miliardi di 355 miliardi, attiva solo un sottoinsieme di 32 miliardi di parametri per ogni compito. Z.AI ha anche rilasciato una variante GLM-4.5-air più piccola con 106 miliardi di parametri totali e 12 miliardi di quelli attivi per un’efficienza ancora maggiore. In una partenza strategica da rivali come DeepSeek-V3 e Kimi K2, Z.AI ha dato la priorità a un’architettura”più profonda, non più ampia”, aumentando il numero di livelli per migliorare la capacità di ragionamento principale del modello.

alla base di questa architettura sono diverse innovazioni tecniche chiave. Il modello impiega un’attenzione raggruppata e un numero maggiore di teste di attenzione per migliorare le prestazioni sui parametri di riferimento. Per garantire la stabilità durante la sua enorme corsa di addestramento, che ha coinvolto un corpus generale di 15 trilioni di dotti di un codice e corpus di ragionamento, il team ha utilizzato un ottimizzatore Muon e QK-Norm per stabilizzare i logit di attenzione. Il modello prevede anche la chiamata nativa e una lunghezza del contesto di 128k, entrambi fondamentali per consentire le sue capacità agenti avanzate.

Sorprendentemente, Z.AI afferma che il modello di punta può operare su solo otto dei chip H20 di NVIDIA. Questo hardware è la versione controllata da esportazione progettata per il mercato cinese e l’efficienza del modello sottolinea un focus strategico sulla fornitura di alte prestazioni all’interno di significativi vincoli di hardware. Questa combinazione di architettura avanzata, addestramento su larga scala e ottimizzazione hardware posiziona GLM-4.5 come una nuova formidabile voce nel paesaggio globale dell’IA.

Performance

Secondo un campo di riferimento completo di un campo di spicco, in base a un campo di spicco complessivamente, in base a un campo di spicco, in base a un campo di spicco complessivamente. Modelli open source di Openai, Antropic e Google. Anche il GLM-4.5-air più piccolo si esibisce fortemente, assicurando la sesta posizione. Questi dati suggeriscono che Z.AI ha sviluppato con successo un modello che compete presso la frontiera della capacità di AI, sfidando la gerarchia stabilita.

Nei test progettati per misurare le sue capacità agenti, GLM-4.5 dimostra risultati impressionanti. Sulla classifica della funzione di funzione-bench e Berkeley (BFCL-V3), le sue prestazioni corrispondono a quella di Claude 4 Sonet. Il modello eccelle anche in complessi compiti di navigazione Web, sovraperformando Claude-4-Opus sul punto di riferimento di BrowneComp. La sua modalità”Thinking”si rivela efficace nel ragionamento avanzato, raggiungendo un punteggio di 91,0 nel test di competizione di matematica AIME24 e 79.1 sul benchmark a livello di domanda a livello di laurea GPQA. GROK 4 MMLU PRO 84.6 81.4 85.3 87.3 86.2 84.9 84.5 86.6 Aime24 91.0 89.4 90.3 75.7 88.7 89.3 94.1 94.3 Math 500 98.2 98.1 99.2 98.2 96.7 98.3 98.0 99.0 Scicode 41.7 42.8 40.3 42.9 45.7 GPQA 79.1 75.0 82.7 79.6 84.4 81.3 81.1 87.7 HLE 14.4 10.6 20.0 11.7 21.1 14.9 15.8 23.9 LiveCodebench (2407-2501) 72.9 70.7 78.4 63.6 80.1 (Stimato) 67,7 64,8 70,0 64,4 70,5 68,3 69,4 73,2

Le capacità di codifica del modello sono ugualmente robuste. In una valutazione umana multi-round diretta utilizzando un framework di codifica standardizzato, GLM-4.5 ha raggiunto un tasso di vittoria del 53,9% contro il Kimi K2 di Moonshot e ha dominato il codificatore Qwen3 di Alibaba con un tasso di successo dell’80,8%. Z.AI segnala anche un tasso di successo che calza gli strumenti del 90,6%, il più alto tra i suoi coetanei, dimostrando un’affidabilità superiore per le attività di codifica agente. Le traiettorie complete per questi test sono state reso pubblicamente disponibile per la revisione della comunità .

Benchmark Glm-4.5 Glm-4.5-AIR GPT-4.1 2.5 Pro DeepSeek-R1-0528 Kimi K2 SWE Bench Verified1 64.2 57.6 69.1 48.6 67.8 70.4 49.0 41.4 65.4 Bench terminale 37.5 30 30.2 30.3 43.2 35.5 25.3 17.5 25.0

Questa forte prestazione è accoppiata. Un’analisi di frontiera di Pareto condotta da Z.AI mostra che sia GLM-4.5 che GLM-4.5-air si siedono sul limite di compromesso ottimale per le prestazioni rispetto alla scala del modello. Ciò indica che i modelli ottengono i loro risultati di alto livello senza il sovraccarico computazionale di concorrenti altrettanto potenti, rafforzando l’attenzione strategica dell’azienda sulla fornitura di alte prestazioni e efficaci costi. Z.ai sta esplicitamente sottovalutando il suo rivale sul prezzo. La società addebiterà 11 centesimi per milione di token di input per GLM-4,5, rispetto alle cariche DeepSeek di 14 centesimi per il suo modello R1.

Questo prezzo aggressivo continua una tendenza che ha esaltato il settore dell’IA. DeepEek stesso ha guadagnato importanza offrendo servizi a una frazione del costo dei modelli di Openi. Ora, Z.ai sta intensificando questa guerra dei prezzi, costringendo le aziende a competere sull’efficienza, non solo la potenza grezza.

Secondo i benchmark di Z.AI, GLM-4.5 compete favorevolmente con modelli di alto livello di Openi, Google e Antropico su una gamma di ragioni, codifica e test agenti. Minefield

I progressi tecnici di Z.AI sono fissati su uno sfondo di intensa pressione geopolitica. La compagnia, con il suo ex nome Zhipu, era .

Open ha anche in precedenza ha segnalato il progresso rapido dell’avvio . Il governo degli Stati Uniti ha espresso profonda preoccupazione per lo sviluppo dell’intelligenza artificiale cinese. Un recente rapporto del comitato della Camera ha marchiato il rivale Deepseek una minaccia per la sicurezza, con il presidente John Moolenaar che afferma:”Questo rapporto chiarisce: Deepseek non è solo un’altra app di intelligenza artificiale: è un’arma nell’arsenale del partito comunista cinese…”

Questo ambiente costringe le aziende cinesi a innovare sotto limiti. La dipendenza dai chip H20 di NVIDIA è una conseguenza diretta dei controlli di esportazione statunitensi volti a rallentare le ambizioni dell’IA della Cina. Tuttavia, il CEO di Z.AI Zhang Peng ha dichiarato alla CNBC che la società ha abbastanza potenza di calcolo, affermando:”La società non ha bisogno di acquistare più chip in quanto ha abbastanza potenza di calcolo per ora.”

Anche il tempismo è fondamentale. Il lancio di Z.Ai arriva mentre lo slancio di Deepseek si è bloccato. Il tanto atteso modello R2 dell’azienda è stato indefinitamente ritardato, in parte a causa delle stesse carenze hardware che Z.AI ha progettato i suoi modelli per navigare.

La corsa globale per la supremazia agente

L’attenzione su”agente AI”luoghi Z.ai in prima spostata di settore fondamentale. L’obiettivo è andare oltre i chatbot che rispondono alle domande agli agenti autonomi che completano le attività. Questa tendenza è già in fase di validazione nel mondo aziendale.

Banca di investimento Goldman Sachs, ad esempio, sta pilotando agenti AI per creare una”forza lavoro ibrida”. Il capo della tecnologia Marco Argenti ha spiegato la visione, dicendo:”Si tratta davvero di persone che lavorano fianco a fianco. Gli ingegneri dovrebbero avere la capacità di descrivere davvero i problemi in modo coerente…”Questo riflette un futuro in cui gli umani supervisionano l’IA, non solo usarlo come strumento.

Z.ai non è solo in questa gara. Alibaba ha recentemente rilasciato il suo CODER QWEN3 e la Moonshot AI ha lanciato il suo modello Kimi K2, entrambi prendendo di mira le capacità agenti. Perfino Sam Altman di Openai ha riconosciuto la pressione competitiva dalla Cina, promettendo all’inizio di quest’anno,”Ovviamente consegneremo modelli molto migliori e tireremo anche a prendere alcune versioni.”

mediante open-sourcing Glm-4.5, Z.ai sta facendo uno sviluppo href=”https://github.com/zai-org/glm-4.5″bersaglio=”_ blank”per lo sviluppo

Categories: IT Info