Iniziativa cinese sull’intelligenza artificiale MiniMaxL’azienda, con sede a Shanghai, ha mandato in shock il settore dell’intelligenza artificiale con il lancio oggi della sua nuova versione. Modello linguistico M2.5 Esistono due varianti che promettono di rendere l’IA di fascia alta così economica da poter smettere del tutto di preoccuparsi del conto.
Si dice anche così "fonte aperta," ma i pesi (impostazioni) e il codice non sono stati ancora rilasciati e non sono stati ancora pubblicati nemmeno il tipo o i termini esatti della licenza. Ma questo è quasi irrilevante considerando quanto a buon mercato MiniMax lo fornisce attraverso la propria API e le API dei suoi partner.
Negli ultimi anni, utilizzare l’intelligenza artificiale più potente del mondo è stato come assumere un costoso consulente; È stato fantastico, ma guardavi costantemente l’orologio (e il conteggio delle monete). M2.5 cambia questa matematica, Ridurre il costo del confine fino al 95%.
Offrendo prestazioni in grado di competere con i modelli di fascia alta di Google e Anthropic a una frazione del costo, soprattutto nell’uso mediato del veicolo per attività aziendali; Creazione di file Microsoft Word, Excel e PowerPointMiniMax ritiene che il futuro non sia solo questione di quanto un modello sia intelligente, ma anche di quanto spesso puoi permetterti di usarlo.
Infatti, MiniMax dice che funziona per questo scopo "con professionisti senior in settori quali la finanza, il diritto e le scienze sociali" Per garantire che il modello possa eseguire un lavoro reale in conformità con le sue specifiche e standard.
Questa versione è importante perché segna un passaggio dall’intelligenza artificiale. "chatbot" uno all’IA "dipendente". Quando l’intelligenza si trasforma "la misurazione è molto economica," gli sviluppatori stanno iniziando a smettere di creare semplici strumenti di domande e risposte "agenti"— software in grado di dedicare ore alla codifica, alla ricerca e all’organizzazione di progetti complessi in modo indipendente senza spendere una fortuna.
MiniMax, infatti, ha già utilizzato questo modello nelle proprie attività. Proprio adesso, Il 30% di tutte le missioni al quartier generale MiniMax sono state completate da M2.5e una sorpresa L’80% del nuovo codice impegnato è stato generato da M2.5!
Come ha scritto il team MiniMax nel post sul blog di rilascio, "Riteniamo che M2.5 offra possibilità quasi illimitate per lo sviluppo e il funzionamento degli attori economici."
Tecnologia: potenza ridotta e innovazione CISPO
Il segreto dell’efficienza di M2.5 risiede nella sua architettura Mix of Experts (MEB). Invece di eseguire tutti i 230 miliardi di parametri per ogni parola prodotta, il modello semplicemente "attiva" 10 miliardi. Ciò gli consente di mantenere la profondità di ragionamento di un modello massiccio pur operando con l’agilità di un modello molto più piccolo.
Per addestrare questo sistema complesso, MiniMax ha sviluppato un framework personalizzato di Reinforcement Learning (RL) chiamato Forge. Ingegnere MiniMax Canzone dell’olivo menzionato su Podcast di ThursdAI su YouTube che questa tecnica è efficace nel ridimensionare le prestazioni anche quando si utilizza un numero relativamente piccolo di parametri e il modello viene addestrato per un periodo di due mesi.
Forge è progettato per aiutare il modello ad apprendere "ambienti del mondo reale" – essenzialmente lasciando che l’IA si eserciti con la codifica e gli strumenti in migliaia di spazi di lavoro simulati.
"Ci siamo resi conto che c’era un enorme potenziale se avessimo addestrato l’apprendimento per rinforzo su un modello piccolo come questo con più ambienti e agenti." La canzone ha detto. "Ma questa non è una cosa facile da fare." Ha aggiunto che questo è ciò che spendono "molto tempo" Aprire.
Per mantenere stabile il modello durante questa formazione intensiva, hanno utilizzato un approccio matematico chiamato CISPO (Clipping Importance Sampling Policy Optimization) e hanno condiviso la formula sul loro blog.
Questa formula garantisce che il modello non venga corretto eccessivamente durante l’allenamento, permettendogli di migliorare quello che MiniMax chiama. "Mentalità da architetto". Invece di iniziare direttamente a scrivere codice, M2.5 ha prima imparato a pianificare in modo proattivo la struttura, le funzionalità e l’interfaccia di un progetto.
Benchmark all’avanguardia (e vicini).
I risultati di questa architettura si riflettono nelle ultime classifiche del settore. L’M2.5 non si è solo evoluto; L’ultimo modello di Anthropic, Claude Opus, rilasciato solo una settimana fa, si è avvicinato alla versione 4.6, spingendolo nella fascia più alta dei modelli di codifica e dimostrando che le aziende cinesi sono ormai a pochi giorni dal raggiungere i laboratori statunitensi con risorse molto migliori (in termini di GPU).
Ecco alcuni dei punti salienti del nuovo MiniMax M2.5:
-
Approvato dal banco SWE: 80,2% – Corrisponde alle velocità di Claude Opus 4.6
-
Sfoglia la composizione: 76,3%: ricerca e utilizzo di strumenti leader del settore.
-
Telaio SWE multiplo: 51,3% — SOTA nella codifica multilingue
-
BFCL (Chiamata di squadra): 76,8%: flussi di lavoro degli agenti ad alta fedeltà.
Sul podcast ThursdAI, il conduttore Alex Volkov ha notato che il MiniMax M2.5 funziona in modo estremamente veloce e quindi utilizza meno token per completare le attività, nell’ordine di $ 0,15 per attività rispetto ai $ 3,00 del Claude Opus 4.6.
Rompere la barriera dei costi
MiniMax offre due versioni del modello tramite la sua API; entrambi si concentrano sull’uso produttivo ad alto volume:
-
M2.5-Fulmine: È ottimizzato per la velocità e offre 100 monete al secondo. Costa $ 0,30 per 1 milione di token di ingresso e $ 2,40 per 1 milione di token di uscita.
-
M2.5 standard: È ottimizzato in termini di costi e funziona a 50 monete al secondo. Costa la metà della versione Lightning (0,15 $ per 1 milione di token di input / 1,20 $ per 1 milione di token di output).
Per dirla semplicemente: MiniMax afferma che puoi correrne quattro "agenti" (dipendenti AI) per circa $ 10.000 su base continuativa per un anno.
Per gli utenti aziendali, questo prezzo è compreso tra 1/10 e 1/20 del costo dei modelli proprietari concorrenti come GPT-5 o Claude 4.6 Opus.
|
Modello |
Entrata |
Uscita |
Costo totale |
Fonte |
|
Qwen3Turbo |
$ 0,05 |
$ 0,20 |
$ 0,25 |
|
|
chat di ricerca approfondita (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
ragionatore di ricerca approfondito (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
Grok 4.1 Veloce (ragionamento) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
Grok 4.1 Veloce (non ragionante) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
MiniMax M2.5 |
$ 0,15 |
$ 1,20 |
$ 1,35 |
|
|
MiniMax M2.5-Lightning |
$ 0,30 |
$ 2,40 |
$ 2,70 |
|
|
Anteprima Flash di Gemini 3 |
$ 0,50 |
$ 3,00 |
$ 3,50 |
|
|
Kimi-k2.5 |
$ 0,60 |
$ 3,00 |
$ 3,60 |
|
|
GLM-5 |
$ 1,00 |
$ 3,20 |
$ 4,20 |
|
|
ERNI 5.0 |
$ 0,85 |
$ 3,40 |
$ 4,25 |
|
|
ClaudeHaiku4.5 |
$ 1,00 |
$ 5,00 |
$ 6,00 |
|
|
Qwen3-Max (23/01/2026) |
$ 1,20 |
$ 6,00 |
$ 7,20 |
|
|
Gemini 3 Pro (≤200.000) |
$ 2,00 |
$ 12,00 |
$ 14,00 |
|
|
GPT-5.2 |
$ 1,75 |
$ 14,00 |
$ 15,75 |
|
|
Claude Sonetto 4.5 |
$ 3,00 |
$ 15,00 |
$ 18,00 |
|
|
Gemini 3 Pro (>200K) |
$ 4,00 |
$ 18,00 |
$ 22,00 |
|
|
Chiudi Esegui 4.6 |
$ 5,00 |
$ 25,00 |
$ 30,00 |
|
|
GPT-5.2 Professionale |
$ 21,00 |
$ 168,00 |
$ 189,00 |
Implicazioni strategiche per imprese e leader
Per i leader tecnologici, M2.5 rappresenta più di un’API più economica. Attualmente sta cambiando il programma operativo per le imprese.
Pressione "per ottimizzare" L’avviso di risparmio è scomparso. Ora puoi utilizzare modelli ad alto contesto e ragionamento per attività di routine che in precedenza erano costose.
Aumento della velocità del 37% nel completamento delle attività end-to-end, "agente" Le pipeline in cui i modelli comunicano con altri modelli, apprezzate dagli orchestratori dell’intelligenza artificiale, si stanno finalmente muovendo abbastanza velocemente per le applicazioni utente in tempo reale.
Inoltre, M2.5 ottiene punteggi elevati nella modellizzazione finanziaria (74,4% nel MEWC), "conoscenza tacita" e settori specializzati come quello legale e finanziario con una supervisione minima.
Poiché M2.5 è posizionato come modello open source, le organizzazioni possono potenzialmente eseguire controlli intensivi e automatizzati del codice su una scala precedentemente impossibile senza un importante intervento umano, fornendo allo stesso tempo un migliore controllo sulla privacy dei dati, ma fino a quando non verranno pubblicati i termini e i pesi delle licenze, questo rimarrà solo uno pseudonimo.
MiniMax M2.5 è un segnale che i limiti dell’intelligenza artificiale non riguardano più solo chi può costruire il cervello più grande, ma chi può trasformare quel cervello nel lavoratore più utile ed economicamente più conveniente nella stanza.














