La startup cinese di intelligenza artificiale Zhupai, alias z.ai, ritorna questa settimana con un modello linguistico di grandi dimensioni, nuovo e rivoluzionario: GLM-5.

L’ultimo della serie GLM in corso e sempre impressionante di z.ai, questo prodotto mantiene la licenza MIT open source, perfetta per l’implementazione aziendale e, in uno dei tanti risultati degni di nota, raggiunge un tasso di allucinazioni record basso su una piattaforma autonoma. Indice di intelligenza analitica artificiale v4.0.

Con un punteggio di -1 sull’indice AA-Omniscience, che rappresenta un enorme miglioramento di 35 punti rispetto al suo predecessore, GLM-5 ora guida l’intero settore dell’intelligenza artificiale, compresi i rivali statunitensi come Google, OpenAI e Anthropic, nell’affidabilità delle informazioni, sapendo quando astenersi piuttosto che fabbricare informazioni.

Oltre alla capacità di ragionamento, il GLM-5 è progettato per il lavoro informativo di alta utilità. Ha caratteristiche locali "Modalità rappresentativa" funzionalità che gli consentono di convertire suggerimenti grezzi o materiali di partenza direttamente in documenti d’ufficio professionali, inclusi quelli pronti all’uso .docx, .pdfE .xlsx file.

Che si tratti di creare report finanziari dettagliati, proposte di sponsorizzazione delle scuole superiori o fogli di calcolo complessi, GLM-5 fornisce risultati in formati reali che si integrano direttamente nei flussi di lavoro aziendali.

Inoltre, viene venduto al dettaglio a un prezzo dirompente di circa 0,80 dollari per milione di token di input e 2,56 dollari per milione di token di output, quasi 6 volte più economico rispetto ai concorrenti proprietari come Claude Opus 4.6, rendendo l’ingegneria d’agenzia all’avanguardia più conveniente che mai. Ecco cosa devono sapere i decisori aziendali sul modello e sulla sua formazione.

Tecnologia: scalabilità per l’efficienza dell’agente

Il cuore del GLM-5 è un enorme salto nei parametri grezzi. Il modello scala dai parametri 355B di GLM-4.5 agli sbalorditivi parametri 744B con 40B attivi per token nell’architettura Expert Hash (MoE). Questa crescita è supportata dall’aumento dei dati di pre-addestramento a token da 28,5 T.

Per affrontare le inefficienze formative di questa portata, Zai ha sviluppato: "melma," una nuova infrastruttura di apprendimento per rinforzo asincrono (RL).

La RL tradizionale spesso soffre "coda lunga" colli di bottiglia; Slime interrompe questo passaggio chiave consentendo la generazione di traiettorie in modo indipendente, consentendo le iterazioni a grana fine necessarie per il comportamento complesso dell’agente.

Integrando ottimizzazioni a livello di sistema come Active Partial Rollout (APRIL), Slime risolve i colli di bottiglia del throughput che spesso consumano più del 90% del tempo di formazione RL e accelera significativamente il ciclo di iterazione per attività complesse con agenti.

La progettazione del framework si concentra su un sistema modulare in tre parti: un modulo di formazione ad alte prestazioni alimentato da Megatron-LM, un modulo di rollout che utilizza SGLang e router personalizzati per la generazione di dati ad alto rendimento e un buffer di dati centralizzato che gestisce l’inizializzazione rapida e l’archiviazione di rollout.

Abilitando ambienti verificabili e adattabili e cicli di feedback di creazione multi-round, Slime fornisce le basi solide e ad alto rendimento necessarie per spostare l’intelligenza artificiale da semplici interazioni conversazionali a un’ingegneria di sistema rigorosa e a lungo orizzonte.

Per mantenere gestibile la distribuzione, GLM-5 integra DeepSeek Sparse Attention (DSA), riducendo notevolmente i costi pur mantenendo una capacità di contesto di 200.000.

Operazione di informazione end-to-end

Zai incornicia il GLM-5 come una cornice "ufficio" Uno strumento per l’era AGI. Mentre i modelli precedenti si concentravano sugli snippet, GLM-5 è progettato per fornire documentazione pronta all’uso.

Può convertire in modo indipendente le richieste in file formattati .docx, .pdf e .xlsx, che vanno dai rapporti finanziari alle proposte di sponsorizzazione.

In pratica, ciò significa che il modello può scomporre gli obiettivi di alto livello in sottoattività attuabili e "Ingegneria dell’agente," Dove gli esseri umani definiscono i cancelli di qualità mentre l’intelligenza artificiale gestisce l’esecuzione.

alte prestazioni

I parametri di riferimento di GLM-5 lo rendono il nuovo modello open source più potente al mondo Analisi artificialeSupera il nuovo Kimi K2.5 del rivale cinese Moonshot, rilasciato solo due settimane fa, dimostrando che le aziende cinesi di intelligenza artificiale stanno quasi raggiungendo i loro rivali occidentali con risorse molto migliori.

Secondo i materiali condivisi oggi da z.ai, il GLM-5 rimane vicino allo stato dell’arte in diversi criteri chiave:

Panca SWE Verificato: Il GLM-5 ha ottenuto 77,8, battendo il Gemini 3 Pro (76,2) e avvicinandosi al 4,6 del Claude Opus (80,9).

Stand 2 del distributore automatico: Nella simulazione della gestione di un’impresa, GLM-5 si è classificato al primo posto tra i modelli open source con un saldo finale di 4.432,12 dollari.

Al di là delle prestazioni, il GLM-5 riduce in modo aggressivo il mercato. È attivo su OpenRouter dall’11 febbraio 2026, al prezzo di circa $ 0,80-$ 1,00 per milione di token di input e $ 2,56-$ 3,20 per milione di token di output. Si colloca nella fascia media rispetto ad altri LLM leader, ma guardando le sue prestazioni di riferimento, può essere definito “uno”. "rubare."

Modello

Accesso (per 1 milione di token)

Produzione (per 1 milione di token)

Costo totale (1 milione di input + 1 milione di output)

Fonte

Qwen3Turbo

$ 0,05

$ 0,20

$ 0,25

AlibabaNuvola

Grok 4.1 Veloce (ragionamento)

$ 0,20

$ 0,50

$ 0,70

xAI

Grok 4.1 Veloce (non ragionante)

$ 0,20

$ 0,50

$ 0,70

xAI

chat di ricerca approfondita (V3.2-Exp)

$ 0,28

$ 0,42

$ 0,70

Ricerca approfondita

ragionatore di ricerca approfondito (V3.2-Exp)

$ 0,28

$ 0,42

$ 0,70

Ricerca approfondita

Anteprima Flash di Gemini 3

$ 0,50

$ 3,00

$ 3,50

Google

Kimi-k2.5

$ 0,60

$ 3,00

$ 3,60

colpo di luna

GLM-5

$ 1,00

$ 3,20

$ 4,20

Zai

ERNI 5.0

$ 0,85

$ 3,40

$ 4,25

qianfan

ClaudeHaiku4.5

$ 1,00

$ 5,00

$ 6,00

antropico

Qwen3-Max (23/01/2026)

$ 1,20

$ 6,00

$ 7,20

AlibabaNuvola

Gemini 3 Pro (≤200.000)

$ 2,00

$ 12,00

$ 14,00

Google

GPT-5.2

$ 1,75

$ 14,00

$ 15,75

OpenAI

Claude Sonetto 4.5

$ 3,00

$ 15,00

$ 18,00

antropico

Gemini 3 Pro (>200K)

$ 4,00

$ 18,00

$ 22,00

Google

Chiudi Esegui 4.6

$ 5,00

$ 25,00

$ 30,00

antropico

GPT-5.2 Professionale

$ 21,00

$ 168,00

$ 189,00

OpenAI

Questo è circa 6 volte più economico in input e circa 10 volte più economico in output rispetto a Claude Opus 4.6 ($ 5/$ 25). Questa versione conferma le voci secondo cui dietro c’è l’intelligenza artificiale Zhipu "Pony Alfa," Un modello nascosto che sovverte i criteri di codifica precedenti in OpenRouter.

Tuttavia, nonostante gli alti benchmark ed il basso costo, non tutti i primi utenti sono entusiasti del modello, affermando che le sue elevate prestazioni non raccontano tutta la storia.

Lukas Petersson, co-fondatore di Andon Labs, una startup di protocolli di intelligenza artificiale autonoma focalizzata sulla sicurezza. L’attenzione è stata attirata da X: "Dopo ore passate a leggere le tracce GLM-5: modello incredibilmente efficace, ma molto meno consapevole della situazione. Raggiunge i suoi obiettivi attraverso tattiche aggressive ma non ragiona sulla sua situazione né attinge alla sua esperienza. Questo è molto spaventoso. Ecco come ottieni il massimizzatore di graffette."

"massimizzatore di graffette" esprime una situazione ipotetica Descritto dal filosofo di Oxford Nick Bostrom nel 2003In cui un’intelligenza artificiale o un’altra creazione autonoma provoca accidentalmente uno scenario apocalittico o l’estinzione umana seguendo eccessivamente un’istruzione apparentemente innocua (come massimizzare il numero di graffette prodotte), reindirizzando tutte le risorse necessarie per la vita umana (o di altro tipo) o altrimenti rendendo la vita impossibile attraverso un impegno apparentemente benigno per raggiungere l’obiettivo.

La tua azienda dovrebbe adottare GLM-5?

Le organizzazioni che desiderano evitare il vincolo del fornitore troveranno nella licenza MIT di GLM-5 e nella disponibilità di pesi aperti un vantaggio strategico significativo. A differenza dei concorrenti closed source che mantengono l’intelligence dietro mura private, GLM-5 consente alle organizzazioni di ospitare la propria intelligence a livello edge.

L’adozione non è priva di attriti. La piena scalabilità dei parametri GLM-5-744B richiederebbe una base hardware massiccia che sarebbe fuori dalla portata delle aziende più piccole senza cloud significativi o cluster GPU locali.

I leader della sicurezza devono valutare le implicazioni geopolitiche di un modello di punta di un laboratorio con sede in Cina, soprattutto nei settori regolamentati in cui il posizionamento e la provenienza dei dati sono strettamente controllati.

Inoltre, lo spostamento verso agenti di intelligenza artificiale più autonomi introduce nuovi rischi in termini di governance. Man mano che i modelli progrediscono "chiacchierata" con "lavoro," Iniziano a funzionare in modo indipendente tra applicazioni e file. Senza solide autorizzazioni specifiche per l’agente e controlli di qualità human-in-the-loop stabiliti dai leader dei dati aziendali, il rischio di errori autonomi aumenta in modo esponenziale.

Dopotutto, GLM-5 è un "comprare" Per le organizzazioni che sono andate oltre i semplici copiloti e sono pronte a creare un ufficio veramente autonomo.

È necessario eseguire il refactoring di un vecchio backend o "autoguarigione" il gasdotto che non dorme.

Mentre i laboratori occidentali continuano a ottimizzare "Pensiero" e profondità di ragionamento, Zai ottimizza l’esecuzione e la scala.

Le aziende che adottano oggi il GLM-5 non si limitano ad acquistare un modello più economico; Stanno scommettendo su un futuro in cui l’intelligenza artificiale più preziosa sarà quella in grado di portare a termine il progetto senza che gli venga chiesta due volte.

Collegamento alla fonte