della Cina Gruppo di formicheInformazioni tecniche dettagliate sul nuovo modello, che è una filiale di Alibaba, Anello-1TQuesto modello, afferma l’azienda, è “il primo modello di ragionamento open source con un totale di mille miliardi di parametri”.
Ring-1T mira a competere con altri modelli di ragionamento come GPT-5 e o-series. OpenAIinsieme GoogleGemelli 2.5. Ant espande il dibattito geopolitico su chi sarà il prossimo con la nuova versione dell’ultimo modello Domina la gara dell’IA: Cina o Stati Uniti.
Ant Group ha affermato che Ring-1T è ottimizzato per problemi matematici e logici, generazione di codici e risoluzione di problemi scientifici.
“Con circa 50 miliardi di parametri attivi per token, Ring-1T raggiunge prestazioni all’avanguardia su molteplici benchmark impegnativi, nonostante si affidi esclusivamente alle capacità di ragionamento in linguaggio naturale”, ha affermato Ant. una carta.
Rilasciato per la prima volta in anteprima a settembre, Ring-1T adotta la stessa architettura di Ling 2.0 ed è addestrato sul modello basato su Ling-1T che la società ha rilasciato all’inizio di questo mese. Ant ha affermato che ciò consente al modello di supportare fino a 128.000 token.
Per addestrare un modello grande come Ring-1T, i ricercatori hanno dovuto sviluppare nuovi metodi per scalare l’apprendimento per rinforzo (RL).
Nuovi metodi di allenamento
Ant Group ha sviluppato tre “innovazioni interconnesse” per supportare RL e formazione di Ring-1T; questa è una sfida date le dimensioni del modello e i grandi requisiti di elaborazione che richiede. Questi tre sono IcePop, C3PO++ e ASystem.
IcePop rimuove gli aggiornamenti rumorosi del gradiente per bilanciare l’allenamento senza rallentare l’inferenza. Aiuta a eliminare il distruttivo disallineamento tra formazione e inferenza in RL. I ricercatori hanno notato che spesso può esserci un’incoerenza nei calcoli delle probabilità, soprattutto quando si addestrano modelli che utilizzano un’architettura mista di esperti (MoE) come Ring-1T.
“Questo problema è particolarmente evidente nell’addestramento dei modelli MoE con RL a causa dell’uso intrinseco del meccanismo di sterzo dinamico. Inoltre, in impostazioni CoT lunghe, queste incoerenze possono gradualmente accumularsi nel corso delle iterazioni e diventare ancora più forti”, hanno detto i ricercatori.
IcePop “sopprime gli aggiornamenti di allenamento sbilanciati attraverso la calibrazione del mascheramento su entrambi i lati.”
Il successivo nuovo metodo che i ricercatori hanno dovuto sviluppare è stato C3PO++, una versione migliorata del sistema C3PO precedentemente stabilito da Ant. Il metodo gestisce il modo in cui Ring-1T e altri modelli con parametri extra-large creano ed elaborano campioni di training, o ciò che chiamano rollout, in modo che le GPU non restino inattive.
Il modo in cui funziona suddividerà il lavoro tra le implementazioni per essere elaborate in parallelo. Uno dei gruppi è il pool di inferenza, che produce nuovi dati, e l’altro è il pool di addestramento, che raccoglie i risultati per aggiornare il modello. C3PO++ garantisce un utilizzo efficiente delle GPU creando un budget token per controllare la quantità di dati elaborati.
L’ultimo nuovo metodo, ASystem, adotta l’architettura SingleController+SPMD (Single Program, Multiple Data) per abilitare operazioni asincrone.
Risultati del confronto
Ant ha guidato il Ring-1T verso parametri di riferimento che misurano le prestazioni in matematica, codifica, ragionamento logico e compiti generali. Lo hanno testato rispetto a modelli come DeepSeek-V3.1-Terminus-Thinking, Qwen-35B-A22B-Thinking-2507, Gemini 2.5 Pro e GPT-5 Thinking.
Nei benchmark, Ring-1T ha ottenuto ottimi risultati, arrivando secondo al GPT-5 di OpenAI nella maggior parte dei benchmark. Ant ha affermato che il Ring-1T ha ottenuto le migliori prestazioni tra tutti i modelli a peso aperto testati.
Il modello ha ottenuto il 93,4% nella classifica AIME 25, classificandosi al secondo posto dopo GPT-5. Nella codifica, Ring-1T ha sovraperformato DeepSeek e Qwen.
“Ciò dimostra che il nostro set di dati accuratamente sintetizzato informa le ottime prestazioni di Ring-1T nelle applicazioni di programmazione, fornendo una solida base per gli sforzi futuri sulle applicazioni degli agenti”, ha affermato la società.
Ring-1T mostra quanto le aziende cinesi stanno investendo nei modelli
Ring-1T è l’ultimo modello cinese volto a detronizzare GPT-5 e Gemini.
Le aziende cinesi hanno rilasciato rapidamente modelli impressionanti dal lancio a sorpresa di DeepSeek a gennaio. La società madre di Ant Quello di Alibabarecentemente pubblicato Qwen3-Omniun modello multimodale che combina in modo naturale testo, immagini, audio e video. Anche DeepSeek ha continuato a migliorare i suoi modelli e, all’inizio di questo mese, Lanciato DeepSeek-OCR. Questo nuovo modello ridisegna il modo in cui i modelli elaborano le informazioni.
La battaglia per il dominio dell’intelligenza artificiale tra Stati Uniti e Cina continua a inasprirsi, con Ring-1T e Ant che sviluppano nuovi metodi per addestrare e ridimensionare modelli extra-large.

