Il team Qwen di ricercatori sull’intelligenza artificiale del gigante cinese dell’e-commerce Alibaba è emerso come uno dei leader globali nello sviluppo di intelligenza artificiale open source nell’ultimo anno, avendo rilasciato una serie di potenti modelli linguistici e modelli multimodali specializzati che si avvicinano e in alcuni casi superano le prestazioni dei leader proprietari statunitensi come OpenAI, Anthropic, Google e xAI.
Ora il team Qwen è tornato questa settimana con un’uscita intrigante che corrisponde alla stagione precedente. "codifica delle vibrazioni" La mania emersa negli ultimi mesi: Qwen3-Encoder-AvantiUn modello proprietario con 80 miliardi di parametri progettato per fornire prestazioni d’élite agli agenti con un ingombro attivo e leggero.
Viene rilasciato sotto la licenza permissiva Apache 2.0, che ne consente l’uso commerciale sia da parte di grandi aziende che di sviluppatori indipendenti. Pesi dei modelli disponibili su Hugging Face in quattro varianti e una relazione tecnica descrive alcuni approcci e innovazioni didattiche.
Questa versione segna un’importante escalation nella corsa agli armamenti globale per l’assistente di codifica definitivo, dopo una settimana in cui lo spazio è stato inondato di nuovi concorrenti. Dai notevoli miglioramenti in termini di efficienza dell’hardware Claude Code di Anthropic al lancio di alto profilo dell’implementazione OpenAI Codex e alla rapida adozione da parte della comunità di framework open source come OpenClaw, il panorama competitivo non è mai stato così affollato.
In questo ambiente rischioso, Alibaba non sta solo cercando di tenere il passo, ma sta anche cercando di stabilire un nuovo standard per l’intelligence open-heavy.
Per i decisori Master, Qwen3-Coder-Next rappresenta un cambiamento fondamentale nell’economia dell’ingegneria dell’intelligenza artificiale. Sebbene il modello possa ospitare un totale di 80 miliardi di parametri, utilizza l’architettura ultra-sparsa Mixture of Experts (MoE), che consente solo 3 miliardi di parametri per passaggio in avanti.
Questo design consente a un modello locale leggero di fornire capacità di ragionamento che competono con i grandi sistemi dedicati mantenendo bassi costi di implementazione e un throughput elevato.
Risolvere il lungo collo di bottiglia del contesto
La svolta tecnica chiave dietro Qwen3-Coder-Next è un’architettura ibrida progettata specificamente per superare i problemi di ridimensionamento quadratico che affliggono i Transformer tradizionali.
Man mano che le finestre di contesto si espandono (e questo modello supporta ben 262.144 token), i tradizionali meccanismi di attenzione diventano computazionalmente proibitivi.
I trasformatori standard stanno riscontrando un problema "muro della memoria" dove il costo del contesto di elaborazione aumenta quadraticamente con la lunghezza della sequenza. Qwen risolve questo problema combinando Gated DeltaNet con Gated Attention.
Gated DeltaNet funge da alternativa di complessità lineare all’attenzione softmax standard. Ciò consente al modello di mantenere lo stato per tutta la finestra di moneta di un quarto di milione senza le penalità di ritardo esponenziale tipiche del ragionamento a lungo orizzonte.
Se abbinato a un MoE estremamente ridotto, il risultato è un rendimento teorico 10 volte superiore per le attività a livello di magazzino rispetto ai modelli densi con capacità totale simile.
Questa architettura consente a un agente di: "Da leggere" una libreria Python completa o un framework JavaScript complesso e rispondere con la velocità di un modello 3D, ma con la comprensione strutturale di un sistema 80D.
Per prevenire allucinazioni contestuali durante la formazione, il team ha utilizzato Optimal Packaging (BFP), una strategia che mantiene l’efficienza senza errori di troncamento riscontrati nella tradizionale fusione dei documenti.
Prima addestrato per essere un rappresentante
"Prossimo" Nella terminologia del modello, rappresenta un perno fondamentale nella metodologia educativa. In passato, i modelli di codifica venivano addestrati su coppie statiche di codice-testo; "sola lettura" istruzione. Qwen3-Coder-Next è stato invece sviluppato attraverso un massiccio processo di sviluppo. "formazione degli agenti" conduttura.
Il white paper descrive in dettaglio una pipeline di sintesi che produce 800.000 attività di codifica verificabili. Questi non erano solo piccoli pezzi; si trattava di scenari di correzione di bug reali estratti dalle richieste pull di GitHub e mappati in ambienti completamente eseguibili.
L’infrastruttura di formazione, nota come MegaFlow, è un sistema di orchestrazione basato su cloud basato su Alibaba Cloud Kubernetes. In MegaFlow, ciascuna attività dell’agente è espressa come un flusso di lavoro in tre fasi: avvio dell’agente, valutazione e post-elaborazione. Durante la distribuzione, il modello interagisce con un ambiente containerizzato live.
Se produce codice che fallisce il test unitario o causa il crash di un contenitore, riceve un feedback immediato durante la formazione e attraverso l’apprendimento di rinforzo. Questo "ciclo chiuso" La formazione consente al modello di apprendere dal feedback dell’ambiente, insegnandogli a riprendersi dagli errori e a migliorare le soluzioni in tempo reale.
Le caratteristiche del prodotto includono:
-
Supporto per il linguaggio di programmazione 370: Un’espansione rispetto alle versioni precedenti 92.
-
Invocazione dello strumento di stile XML: Un nuovo formato qwen3_coder progettato per argomenti ricchi di stringhe consente al modello di emettere lunghi frammenti di codice senza sfuggire alle virgolette nidificate e al sovraccarico inerenti a JSON.
-
Focus a livello di magazzino: A metà della formazione, l’espansione dei dati a livello di repository a circa 600 miliardi di token si è rivelata più efficace dei soli set di dati a livello di file in termini di logica di dipendenza tra file.
Specializzazione attraverso modelli esperti
Un’importante distinzione della linea di prodotti Qwen3-Coder-Next è l’uso di speciali modelli Expert. Invece di formare un modello generale per tutte le attività, il team ha sviluppato esperti specifici del dominio per lo sviluppo Web e l’esperienza utente (UX).
Lo specialista dello sviluppo Web si occupa di una gamma completa di attività come la creazione dell’interfaccia utente e la composizione dei componenti. Tutti gli esempi di codice sono stati creati in un ambiente Chromium controllato da Game Writer.
Per le istanze React, è stato distribuito un server Vite per garantire che tutte le dipendenze fossero inizializzate correttamente. Un Vision Language Model (VLM) ha quindi valutato le pagine generate per quanto riguarda l’integrità del layout e la qualità dell’interfaccia utente.
User Experience Expert è stato ottimizzato per accogliere il formato toolcall in vari scaffold CLI/IDE come Cline e OpenCode. Il team ha scoperto che la formazione su vari modelli di chat dei veicoli ha aumentato significativamente la robustezza del modello rispetto a schemi che non erano visibili durante l’implementazione.
Una volta che questi esperti hanno raggiunto le massime prestazioni, le loro capacità sono state riunite in un unico modello 80D/3D MoE. Ciò consente alla versione a distribuzione leggera di preservare le informazioni sfumate di modelli di insegnanti molto più ampi.
Andiamo oltre i benchmark offrendo allo stesso tempo un’elevata sicurezza
I risultati di questa formazione specializzata sono chiaramente visibili nella posizione competitiva del modello nei confronti dei giganti del settore. Nelle valutazioni benchmark utilizzando lo scaffold SWE-Agent, Qwen3-Coder-Next ha dimostrato un’efficienza eccezionale rispetto al conteggio dei parametri attivi.
Nello SWE-Bench Verified il modello ha ottenuto un punteggio del 70,6%. Questa prestazione è abbastanza competitiva se affiancata a modelli significativamente più grandi; Supera DeepSeek-V3.2, che ha ottenuto il 70,2%, ed è solo leggermente inferiore al punteggio di GLM-4.7 del 74,2%.
Ancora più importante, il modello rivela una forte consapevolezza intrinseca della sicurezza. In SecCodeBench, che valuta la capacità di un modello di riparare le vulnerabilità, Qwen3-Coder-Next ha sovraperformato Claude-Opus-4.5 negli scenari di generazione di codice (61,2% contro 52,5%).
In particolare, ha mantenuto punteggi elevati anche quando non sono stati forniti suggerimenti sulla sicurezza; Ciò suggerisce che durante la fase di addestramento degli agenti, composta da 800.000 missioni, abbia imparato ad anticipare le comuni insidie della sicurezza.
Nei benchmark di sicurezza multilingue, il modello ha mostrato anche un equilibrio competitivo tra generazione di codice funzionale e sicuro, superando sia DeepSeek-V3.2 che GLM-4.7 nel benchmark CWEval con un punteggio func-sec@1 del 56,32%.
Sfidare i colossi immobiliari
Questa versione rappresenta la sfida più significativa al predominio dei modelli di codifica closed source nel 2026. Dimostrando che un modello con solo parametri attivi 3D può affrontare le complessità dell’ingegneria del software del mondo reale con la stessa efficacia di un computer. "colossale," Alibaba ha effettivamente democratizzato la codifica efficace.
"Ah!" Il momento cruciale per il settore è la consapevolezza che la lunghezza del contesto e il throughput sono le due leve più importanti per il successo degli agenti.
Un modello in grado di elaborare token da 262.000 in un repository in pochi secondi e verificare la propria esecuzione in un contenitore Docker è fondamentalmente più utile di un modello più grande che è troppo lento o costoso per l’iterazione.
Il team Qwen conclude nel suo rapporto: "La scalabilità della formazione degli agenti piuttosto che la sola dimensione del modello è un fattore importante per migliorare la capacità dell’agente di codifica nel mondo reale". Era con Qwen3-Coder-Next "mammut" Il modello di codifica potrebbe essere giunto al termine, sostituito da esperti ultraveloci e poco frequenti che possono pensare tanto profondamente quanto possono correre.















