Iniziativa cinese sull’intelligenza artificiale negli ultimi anni MiniMax È diventato uno dei mercati più interessanti nell’affollato mercato globale dell’intelligenza artificiale, guadagnandosi la reputazione di fornire modelli linguistici di grandi dimensioni (LLM) di frontiera con licenze open source e, prima ancora, modelli di rendering video AI di alta qualità (Hailuo).
pubblicazione MiniMax M2.7 oggi Un nuovo LLM proprietario progettato per potenziare al meglio gli agenti di intelligenza artificiale e fungere da backend per cablaggi e strumenti di terze parti come Claude Code, Kilo Code e OpenClaw segna una nuova pietra miliare: anziché fare affidamento esclusivamente su modifiche guidate dall’uomo, MiniMax ha sfruttato M2.7 per costruire, monitorare e ottimizzare il proprio hardware di apprendimento per rinforzo.
Questo movimento verso il continuo auto-miglioramento segna un cambiamento nel settore: un futuro in cui i modelli che utilizziamo sono il prodotto della ricerca umana e gli architetti del suo progresso. Il modello è classificato come modello testuale di solo ragionamento, fornendo informazioni paragonabili ad altri sistemi leader pur mantenendo un’efficienza in termini di costi significativamente più elevata.
Tuttavia, il fatto che per ora sia registrato M2.7 è ancora una volta un segno delle iniziative cinesi nel campo dell’intelligenza artificiale. Per gran parte dello scorso anno, Alfieri del mondo di frontiera dell’intelligenza artificiale open sourceQuesto approccio, che li rende attraenti per le aziende di tutto il mondo grazie ai costi bassi (o nulli) e alla personalizzazione, sta cambiando strategia e perseguendo modelli leader più specializzati, come fanno da anni leader statunitensi come OpenAI, Google e Anthropic.
MiniMax diventa la seconda startup cinese a lanciare un LLM proprietario e all’avanguardia negli ultimi mesi, dopo GLM-5 Turbo di z.ai, con voci secondo cui anche il team Qwen di Alibaba si sta rivolgendo allo sviluppo proprietario in seguito alla partenza di dirigenti senior e altri ricercatori.
Successo tecnico: il ciclo dello sviluppo personale
La caratteristica distintiva del MiniMax M2.7 è il suo ruolo nella sua creazione. Secondo i documenti aziendaliLe versioni precedenti del modello venivano utilizzate per creare un hardware per agenti di ricerca in grado di gestire pipeline di dati, ambienti di formazione e infrastrutture di valutazione.
Attivando in modo indipendente la lettura dei log, il debug e l’analisi delle metriche, M2.7 ha gestito dal 30% al 50% del flusso di lavoro di sviluppo.
Non si tratta solo di automazione delle attività di routine; il modello ha ottimizzato le prestazioni di programmazione analizzando le traiettorie dei guasti e pianificando le modifiche al codice su cicli iterativi di 100 o più cicli.
"Abbiamo deliberatamente addestrato il modello per essere migliore nella pianificazione e nel chiarire i requisiti con l’utente." ha spiegato Skyler Miao, responsabile tecnico di MiniMax Nel social network X. "Il prossimo passo è un simulatore utente più complesso che porterà tutto ciò ancora oltre."
Questa capacità si estende ad ambienti complessi. MLE Loom Lite, Una serie di gare di machine learning progettate per testare le capacità di ricerca autonoma.
In queste prove, M2.7 ha ottenuto una percentuale di medaglie del 66,6%. Un livello di prestazioni legato al nuovo Gemini 3.1 di Google che si avvicina agli attuali benchmark all’avanguardia fissati da Claude Opus 4.6 di Anthropic.
Secondo MiniMax, l’obiettivo è muoversi verso la piena autonomia nell’addestramento dei modelli e nell’architettura di inferenza senza intervento umano.
Miglioramento delle prestazioni: MiniMax m2.7 e m2.5
Rispetto al suo predecessore, M2.5, rilasciato nel febbraio 2026, il modello M2.7 offre vantaggi significativi nell’ingegneria del software ad alto rischio e nelle attività professionali d’ufficio.
Mentre M2.5 è apprezzato per la padronanza del codice multilingue, M2.7 è progettato per attività di ingegneria del mondo reale che richiedono ragionamenti causali nei sistemi di produzione live.
I parametri chiave delle prestazioni includono:
-
Ingegneria del software: M2.7 ha ottenuto il 56,22% nel benchmark SWE-Pro, eguagliando i massimi di concorrenti globali come GPT-5.3-Codex.
-
Consegna in ufficio professionale: Nell’elaborazione dei documenti, M2.7 ha ottenuto un punteggio Elo di 1495 in GDPval-AA; Questo punteggio, secondo l’azienda, è il più alto tra i modelli accessibili open source.
-
Ridurre le allucinazioni: Il modello riceve un punteggio positivo nell’AA-Omniscience Index; Questo è un grande salto rispetto ai 40 punti negativi dell’M2.5.
-
Tasso di allucinazioni: M2.7 raggiunge un tasso di allucinazioni del 34%; Questo tasso è inferiore al 46% per Claude Sonnet 4.6 e al 50% per Gemini 3.1 Pro Preview.
-
Comprensione del sistema: Il modello ha ottenuto un punteggio del 57,0% su Terminal Bench 2, dimostrando una profonda comprensione della logica operativa complessa piuttosto che della semplice generazione di codice.
-
Abilità adatta: Nel benchmark MM Claw, che ha testato 40 abilità complesse del costo di oltre 2.000 monete ciascuna, M2.7 ha mantenuto un tasso di coinvolgimento del 97%, un miglioramento significativo rispetto alla linea di base M2.5.
-
Parità di intelligenza: Le capacità di ragionamento del modello sono considerate equivalenti a GLM-5, ma utilizzano il 20% in meno di token di output per ottenere risultati simili.
L’evoluzione del modello è testimoniata anche da: 50 punti nell’Indice di Intelligenza Analitica ArtificialeRappresenta un miglioramento di 8 punti rispetto al suo predecessore in un solo mese e si è anche classificato all’ottavo posto a livello globale in termini di intelligenza complessiva sulle attività di benchmark in vari settori.
Non tutti i benchmark indipendenti di terze parti mostrano un miglioramento per M2.7 rispetto a M2.5: Sì BridgeBenchuna serie di attività progettate dalla startup di codifica AI dell’agenzia BridgeMind per testare le prestazioni di un modello "codifica delle vibrazioni," o convertire il linguaggio naturale in codice funzionante, M2.5 si è classificato 12° e M2.7 si è classificato 19°.
Accesso, prezzi e integrazione
MiniMax M2.7 è un modello proprietario disponibile tramite le piattaforme di rendering MiniMax API e MiniMax Agent. Sebbene i pesi del modello principale per M2.7 rimangano chiusi, l’azienda continua a contribuire all’ecosistema attraverso il progetto interattivo open source Sala aperta.
Per l’integrazione API diretta e tramite provider di terze parti Apri RouterMiniMax M2.7 mantiene il suo prezzo di riferimento di 0,30 dollari per 1 milione di token di ingresso e 1,20 dollari per 1 milione di token di uscita; Questo non è diverso dal prezzo M2.5.
MiniMax offre un piano token strutturato con vari livelli di abbonamento per supportare diverse scale e metodi di utilizzo. Questi piani consentono agli utenti di accedere a modelli di testo, parlato, video, immagini e musica con un’unica quota unificata.
Per aumentare ulteriormente l’adozione, MiniMax ha lanciato un programma di riferimento Invita e vinci che offre ai nuovi invitati uno sconto del 10% e agli invitati un buono sconto del 10%.
Prezzi del piano token mensile standard: I livelli mensili standard sono progettati per gli sviluppatori entry-level fino agli utenti abituali.
-
Inizio: $ 10 al mese per 1.500 richieste in 5 ore.
-
Più: $ 20 al mese per 4.500 richieste in 5 ore.
-
Massimo: $ 50 al mese per 15.000 richieste in 5 ore.
Prezzi mensili del piano token ad alta velocità: Per i carichi di lavoro su scala di produzione che richiedono la variante ad alta velocità M2.7, sono disponibili i seguenti livelli:
-
Plus-Alta velocità: $ 40 al mese per 4.500 richieste in 5 ore.
-
Alta velocità massima: $80 al mese per 15.000 richieste in 5 ore.
-
Altissima velocità: $ 150 al mese per 30.000 richieste in 5 ore.
Prezzi del piano token annuale: Gli abbonamenti annuali offrono sconti significativi per un impegno a lungo termine:
-
Inizio standard: $ 100 all’anno (risparmia $ 20).
-
Standard Più: $ 200 all’anno (risparmio $ 40).
-
Massimo standard: $ 500 all’anno (risparmia $ 100).
-
Alta velocità Plus: $ 400 all’anno (risparmio $ 80).
-
Alta velocità massima: $ 800 all’anno (risparmio $ 160).
-
Alta velocità ultra: $ 1.500 all’anno (risparmio $ 300).
Una richiesta su questi piani equivale più o meno ad una richiesta sul MiniMax M2.7; ma altri modelli del pacchetto, come video o parlato ad alta definizione, consumano le richieste a un ritmo più elevato.
Integrazioni di strumenti ufficiali
Per garantire un’adozione senza intoppi, MiniMax ha fornito la documentazione ufficiale Integrare M2.7 in più di 11 principali strumenti di sviluppo e hardware di broker.
Ciò include piattaforme comunemente utilizzate come Claude Code, Cursor, Trae e Zed. Altri strumenti ufficialmente supportati includono OpenCode, Kilo Code, Cline, Roo Code, Droid, Grok CLI e Codex CLI.
Inoltre, il modello supporta il Model Context Protocol, che gli consente di utilizzare in modo nativo strumenti come la ricerca sul Web e la comprensione delle immagini per il ragionamento multimodale. Gli sviluppatori che utilizzano l’SDK Anthropic possono integrare facilmente M2.7 modificando ANTHROPIC_BASE_URL in modo che punti all’endpoint MiniMax.
Quando si utilizza MiniMax come fornitore in strumenti come OpenClaw, le funzionalità di comprensione delle immagini vengono configurate automaticamente tramite l’endpoint API VLM del modello, eliminando la necessità di ulteriori configurazioni da parte dell’utente.
Con la sua profonda struttura di integrazione e l’approccio pionieristico all’autoevoluzione ricorsiva, MiniMax M2.7 rappresenta un passo significativo verso un futuro in cui l’intelligenza artificiale è nativa, dove i modelli sono coinvolti nel proprio progresso tanto quanto gli esseri umani che li guidano.
Implicazioni strategiche per i decisori aziendali
I decisori tecnici dovrebbero interpretare la versione M2.7 come una prova del fatto che l’intelligenza artificiale delle agenzie si sta spostando dalla prototipazione teorica all’utilità pronta per la produzione.
La capacità del modello di ridurre i tempi di ripristino per gli incidenti di produzione live a meno di tre minuti correlando in modo autonomo i parametri di monitoraggio con i repository di codice segna un cambiamento di paradigma per i team SRE e DevOps.
Le organizzazioni che attualmente si trovano sotto pressione per adottare soluzioni di efficienza basate sull’intelligenza artificiale devono decidere se si sentono a proprio agio con l’intelligenza artificiale come assistente avanzato o se sono pronte a integrare team locali di agenti in grado di fornire progetti completi end-to-end.
Da un punto di vista finanziario, M2.7 rappresenta un significativo passo avanti in termini di efficienza dei costi in termini di giudizio di alto livello. L’analisi mostra che l’M2.7 costa meno di un terzo del costo del GLM-5 per operare a livelli di intelligenza equivalenti.
Ad esempio, l’esecuzione di un indice di intelligence standard costa 176 dollari su M2.7, 547 dollari su GLM-5 e 371 dollari su Some K2.5. Questa strategia di prezzo aggressiva colloca M2.7 alla frontiera di Pareto della tabella dei costi e dell’intelligenza, offrendo un ragionamento di livello aziendale a una frazione del prezzo di mercato.
Il mercato attuale è saturo di modelli ad alte prestazioni, molti dei quali presentano ancora lievi vantaggi nei punteggi di giudizio complessivi. Tuttavia, l’ottimizzazione specifica di M2.7 per la compatibilità della suite Office in Excel, PPT e Word e le sue elevate prestazioni nel benchmark GDPval-AA lo rendono un candidato privilegiato per le organizzazioni focalizzate su flussi di lavoro documentali professionali e modelli finanziari.
I decisori devono valutare i vantaggi di un modello edge generico rispetto a un motore specializzato come M2.7 progettato per interagire con scaffold e set di strumenti interni complessi.
Di conseguenza, il fatto che sia offerto da una società con sede in Cina (con sede a Shanghai) e sia soggetto alle leggi di quel paese oltre a quello dell’utente, e non sia ancora disponibile per l’uso offline o locale, può rendere difficile la vendita per le aziende che operano negli Stati Uniti e in Occidente, in particolare quelle che operano in settori altamente regolamentati o a contatto con il governo.
Tuttavia, lo spostamento verso modelli di auto-miglioramento suggerisce che il ROI degli investimenti nell’IA dipenderà sempre più dai guadagni ricorrenti del sistema stesso.
Le organizzazioni che adottano modelli in grado di migliorare il proprio hardware potrebbero trovarsi su una curva di iterazione più rapida rispetto alle organizzazioni che si affidano a miglioramenti statici e esclusivamente umani. Grazie all’aggressiva integrazione di MiniMax nel moderno stack degli sviluppatori, la barriera nel testare questi flussi di lavoro autonomi è stata significativamente ridotta, esercitando pressione sui concorrenti affinché offrano funzionalità simili di agenti nativi.















