Unendosi ai ranghi di un numero crescente di modelli di ragionamento più piccoli e più potenti MiroThinker 1.5 da MiroMind con soli 30 miliardi di parametri rispetto alle centinaia di miliardi o trilioni di parametri utilizzati dai principali modelli core large Language (LLM).

Ma MiroThinker 1.5 si distingue tra questi minder più piccoli per una ragione importante: offre capacità di ricerca dell’agenzia che competono con rivali da trilioni di parametri come K2 e DeepSeek, a una frazione del costo dell’inferenza.

Questa versione segna una pietra miliare nel progresso verso agenti IA efficienti e implementabili. Le organizzazioni sono state a lungo costrette a scegliere tra costose chiamate API a modelli edge o il sacrificio delle prestazioni native. MiroThinker 1.5 offre una terza via: modelli ponderati espliciti progettati specificamente per strumenti estesi e ragionamento in più fasi.

Una delle maggiori tendenze emergenti nel settore è il passaggio dalle agenzie altamente specializzate verso agenzie più generiche. Fino a poco tempo fa, questa capacità era in gran parte limitata a modelli speciali. Il MiroThinker 1.5 rappresenta un serio contendente a peso aperto in questo campo. guarda il mio video di YouTube sotto.

Ridurre il rischio di allucinazioni attraverso un ragionamento verificabile

Per i team IT che valutano l’implementazione dell’intelligenza artificiale, le allucinazioni rimangono un ostacolo fondamentale all’utilizzo di modelli aperti in produzione. MiroThinker 1.5 affronta questo problema attraverso un cambiamento architettonico fondamentale nel modo in cui il modello gestisce l’incertezza, che MiroMind chiama “modalità scienziato”.

Invece di generare risposte statisticamente plausibili da schemi memorizzati (la causa principale della maggior parte delle allucinazioni), MiroThinker è addestrato a condurre un ciclo di ricerca verificabile: proporre ipotesi, interrogare fonti esterne per prove, identificare discrepanze, rivedere e riaffermare i risultati. Durante l’addestramento, il modello viene esplicitamente penalizzato per output con elevata affidabilità senza supporto del codice sorgente.

Il significato pratico della distribuzione aziendale è la verificabilità. Una volta che MiroThinker genera una risposta, può rivelare sia la catena del ragionamento che le fonti esterne consultate. Per i settori regolamentati come quelli dei servizi finanziari, della sanità e del diritto, ciò crea un percorso verso la documentazione che i modelli meccanici non possono fornire. I team di conformità possono esaminare non solo il risultato del modello, ma anche il modo in cui è arrivato a quel punto.

Questo approccio riduce anche il problema delle “allucinazioni fiduciose” comune nei sistemi di intelligenza artificiale di produzione. Il modello è addestrato a cercare conferme piuttosto che a fare previsioni quando è incerto; Questo è un comportamento che si traduce direttamente in un errore meno costoso.

Prestazioni di riferimento: colpi superiori al suo peso

In questo contesto, MiroThinker-v1.5-30B offre prestazioni paragonabili a modelli con un numero di parametri fino a 30 volte superiore, incluso il modello Kimi-K2-Thinking da trilioni di parametri.

In BroveComp-ZH, un punto di riferimento chiave per le capacità di web mining, il modello 30B ha effettivamente battuto il suo rivale da trilioni di parametri di 69,8 punti.

La differenza di costo è altrettanto sorprendente. MiroMind riporta costi di inferenza per la variante 30B a partire da 0,07 dollari per chiamata (circa un ventesimo del costo di Kimi-K2-Thinking) e velocità di inferenza più elevate.

Una variante più grande da 235B (con parametri attivi da 22B su un’architettura specializzata) si colloca al livello più alto a livello globale nei benchmark di più agenti di ricerca. Nelle valutazioni generali della ricerca degli agenti, questi modelli superano i sistemi DeepSeek V3.2, Minimax, GLM e Kimi-K2.

Nei test, il modello più grande si avvicina al Gemini 3 Pro in vari benchmark e si avvicina ai sistemi di classe GPT-5 di quanto il numero di parametri suggerirebbe. Anche se l’arrampicata in collina sta diventando sempre più comune, ciò che è più importante è la competitività complessiva, e MiroThinker ci riesce bene.

Utilizzo esteso del veicolo: fino a 400 chiamate al veicolo per sessione

La capacità distintiva di MiroThinker 1.5 è lo strumento sostenibile.

I modelli supportano fino a 256.000 token di contesto e richiedono il supporto per un massimo di 400 chiamate a strumenti per sessione; questo è un requisito fondamentale per flussi di lavoro di ricerca complessi che comportano un’ampia raccolta, sintesi e controllo incrociato di informazioni.

Ciò colloca MiroThinker saldamente nella categoria dei modelli di agenti emergenti progettati per il completamento autonomo delle attività piuttosto che per domande e risposte a turno singolo. Le applicazioni pratiche includono flussi di lavoro di ricerca approfondita, pipeline di contenuti, generazione di report e output in stile podcast simili a NotebookLM.

Innovazione educativa: sandbox sensibile al tempo

Un’altra importante innovazione di MiroThinker 1.5 è il Time-Aware Training Sandbox.

Il modello di formazione tradizionale funziona da quella che MiroMind descrive come “la prospettiva di Dio”; qui il modello può accedere ai risultati finali all’interno di set di dati statici, creando distorsioni del senno di poi. Il tutorial di MiroThinker elimina questo vantaggio.

Durante l’addestramento, il modello può interagire solo con le informazioni pubblicate prima di un certo timestamp, prevenendo fughe di notizie future e costringendolo a ragionare in condizioni realistiche di informazioni mancanti.

La pipeline incoraggia il modello a scegliere lo strumento giusto al momento giusto combinando la messa a punto supervisionata con l’apprendimento di rinforzo utilizzando ricompense verificabili attraverso Group Relative Policy Optimization (GRPO), un algoritmo avanzato di apprendimento di rinforzo reso popolare da DeepSeek.

Questo approccio è particolarmente rilevante per i casi d’uso aziendali in cui i modelli devono ragionare sull’evoluzione delle situazioni anziché ricordare fatti statici.

Problemi pratici di distribuzione

I requisiti hardware sono ancora importanti per i team IT che valutano l’implementazione. Anche il modello 30B richiede una quantità significativa di memoria GPU e le configurazioni più piccole potrebbero avere difficoltà.

Uno dei vantaggi è la compatibilità. MiroThinker viene eseguito su server vLLM con endpoint API compatibili con OpenAI, facilitando l’integrazione come sostituzione istantanea nelle toolchain esistenti e nei flussi di lavoro di chiamata di funzioni.

Entrambe le dimensioni del modello sono disponibili presso Hugging Face con una licenza MIT permissiva e di facile utilizzo ed è disponibile una demo online per la valutazione. Le licenze permissive rimuovono gli ostacoli significativi alla distribuzione interna e alla messa a punto.

Il quadro generale: ridimensionamento interattivo e ridimensionamento dei parametri

MiroThinker 1.5 arriva in un momento in cui il settore si trova ad affrontare i limiti delle tradizionali leggi di dimensionamento. I modelli più grandi non garantiscono più prestazioni migliori nel mondo reale. Come osserva Artificial Analysis, molti criteri sono saturi, spingendo l’industria verso valutazioni basate sul vantaggio economico piuttosto che su ragionamenti puramente astratti.

La scommessa di MiroMind è sulla scalabilità interattiva; migliorare la capacità attraverso un’interazione più profonda con gli strumenti anziché un maggiore conteggio dei parametri. Se fosse vero, ciò potrebbe abilitare agenti avanzati su infrastrutture che non si basano su costose API edge.

Fondata da Tianqiao Chen e dallo scienziato dell’intelligenza artificiale Jifeng Dai, l’azienda descrive la sua missione come la creazione di “Intelligenza nativa” che ragiona attraverso l’interazione piuttosto che la memorizzazione.

È ancora una questione aperta se questo approccio diventerà dominante o rimarrà una nicchia specializzata. Ma per le aziende alle prese con il compromesso costi-capacità, MiroThinker 1.5 offre un punto dati affascinante: a volte insegnare a un modello come fare ricerca è più importante che insegnargli a ricordare tutto.

Collegamento alla fonte