Startup cinese di intelligenza artificiale Ricerca approfondita Domenica l’azienda ha lanciato due nuovi potenti modelli di intelligenza artificiale che, a suo dire, corrispondono o superano le capacità di OpenAI GPT-5 e Google Gemini-3.0-Pro – Uno sviluppo che potrebbe rimodellare l’ambiente competitivo tra i giganti tecnologici americani e i loro rivali cinesi.
La società con sede a Hangzhou ha iniziato le operazioni DeepSeek-V3.2È progettato come assistente al ragionamento quotidiano insieme a DeepSeek-V3.2-Speciale, un modello ad alta potenza che ha ottenuto prestazioni da medaglia d’oro in quattro competizioni internazionali d’élite come le Olimpiadi internazionali della matematica del 2025, le Olimpiadi internazionali dell’informatica, le finali mondiali dell’ICPC e le Olimpiadi matematiche cinesi.
Questa versione comporta profonde implicazioni per la leadership tecnologica americana. DeepSeek ha dimostrato ancora una volta di essere in grado di produrre sistemi di intelligenza artificiale pionieristici nonostante i controlli sulle esportazioni statunitensi. Limitare l’accesso della Cina ai chip Nvidia avanzati – e lo ha fatto rendendo i suoi modelli liberamente disponibili con una licenza MIT open source.
"La gente pensava che DeepSeek fosse una svolta irripetibile, ma ora abbiamo fatto un ritorno molto più grande." ha scritto Chen FangUna persona che si identifica come collaboratore del progetto su X (ex Twitter). Questa versione ha ricevuto una rapida risposta online, con un utente che ha affermato: "Riposa in pace ChatGPT."
Come la svolta relativa alla scarsa attenzione di DeepSeek riduce i costi di elaborazione
È il cuore della nuova versione DeepSeek Attenzione rarao DSA: una nuova innovazione architetturale che riduce significativamente l’onere computazionale dell’esecuzione di modelli di intelligenza artificiale su documenti lunghi e attività complesse.
I tradizionali meccanismi di attenzione dell’intelligenza artificiale, la tecnologia di base che consente ai modelli linguistici di comprendere il contesto, si adattano poco all’aumentare della lunghezza dell’input. L’elaborazione di un documento per il doppio del tempo richiede in genere un numero di calcoli quattro volte superiore. L’approccio di DeepSeek "indicizzatore di fulmini" questo identifica solo le parti più rilevanti del contesto per ciascuna query e ignora il resto.
Di conseguenza Rapporto tecnico di DeepSeekDSA riduce i costi di inferenza all’incirca della metà rispetto ai modelli precedenti durante l’elaborazione di sequenze lunghe. Architettura "Riduce significativamente la complessità computazionale mantenendo le prestazioni del modello," si legge nel rapporto.
Elaborare 128.000 monete (all’incirca equivalenti a un libro di 300 pagine) ora costa circa 0,70 dollari per milione di monete per la decodifica; Nella transazione precedente, questa cifra era di $ 2,40. Modello V3.1-Terminus. Ciò significa una riduzione del 70% dei costi di estrazione.
I modelli con 685 miliardi di parametri supportano finestre di contesto di 128.000 token, rendendoli adatti all’analisi di documenti lunghi, basi di codice e articoli di ricerca. DeepSeek relazione tecnica Si rileva che valutazioni indipendenti di benchmark a lungo contesto mostrano che la V3.2 funziona allo stesso livello o meglio della versione precedente "sebbene contenga un meccanismo di attenzione scarso."
Risultati di benchmark che collocano DeepSeek nella stessa lega di GPT-5
L’affermazione di DeepSeek di essere alla pari con i principali sistemi di intelligenza artificiale americani si basa su test approfonditi su compiti di matematica, codifica e ragionamento, e i numeri sono sorprendenti.
Aprire OBIETTIVO 2025una prestigiosa competizione matematica americana, DeepSeek-V3.2-Personalizzato Ha raggiunto un tasso di successo del 96,0% rispetto al 94,6% di GPT-5-High e al 95,0% di Gemini-3.0-Pro. SU Torneo di matematica Harvard-MITLa variante Speciale ha ottenuto il 99,2%, battendo il 97,5% della Gemini.
Standard Modello V3.2Ottimizzato per l’uso quotidiano, ha ottenuto un punteggio del 93,1% su AIME e del 92,5% su HMMT; raggiunto marginalmente al di sotto dei modelli di frontiera ma con risorse computazionali significativamente inferiori.
La cosa più sorprendente sono i risultati della competizione. DeepSeek-V3.2-Personalizzato Ha ricevuto 35 punti su 42 Olimpiadi Internazionali della Matematica 2025ottenendo lo status di medaglia d’oro. in quello Olimpiadi Internazionali dell’InformaticaCon 492 punti su 600, si è classificato 10° nella classifica generale ed è diventato nuovamente oro. Il modello ha risolto 10 dei 12 problemi. Finali mondiali dell’ICPCè al secondo posto.
Questi risultati sono arrivati senza accesso a Internet o strumenti al momento del test. Il rapporto di DeepSeek afferma: "Le prove rispettano rigorosamente i limiti di tempo e di tentativi della competizione."
Nei confronti di codifica, DeepSeek-V3.2 risolto il 73,1% dei bug del mondo reale Approvato SWECompete con GPT-5-High al 74,9%. Aprire Banco di lavoro terminale 2.0DeepSeek, che misura flussi di lavoro di codifica complessi, ha ottenuto il 46,4%; questo era ben al di sopra del 35,2% di GPT-5-High.
L’azienda riconosce i limiti. "L’efficienza dei token rimane ancora un problema," DeepSeek nella relazione tecnica "tipicamente richiede orbite di generazione più lunghe" Per eguagliare la qualità di output di Gemini-3.0-Pro.
Perché insegnare all’intelligenza artificiale a pensare quando si utilizzano gli strumenti cambia tutto
Al di là del ragionamento grossolano, DeepSeek-V3.2 introduce "pensare quando si usano gli strumenti" – la capacità di ragionare sui problemi eseguendo contemporaneamente codice, effettuando ricerche sul Web e manipolando file.
I precedenti modelli di intelligenza artificiale si trovavano di fronte a una limitazione frustrante: ogni volta che invocavano uno strumento esterno, perdevano il filo del discorso e dovevano ricominciare il ragionamento da zero. L’architettura di DeepSeek mantiene traccia del ragionamento su più chiamate di strumenti, garantendo una risoluzione fluida dei problemi in più fasi.
Per formare questo talento, l’azienda ha creato un’enorme pipeline di dati sintetici che ha prodotto più di 1.800 ambienti di attività diversi e più di 85.000 istruzioni complesse. Queste includevano sfide come la pianificazione di viaggi di più giorni con vincoli di budget, correzioni di bug in otto linguaggi di programmazione e ricerche basate sul web che richiedevano decine di ricerche.
Il white paper descrive un esempio: pianificare un viaggio di tre giorni da Hangzhou con restrizioni sui costi delle attrazioni che variano in base ai prezzi degli hotel, alle valutazioni dei ristoranti e alle preferenze di alloggio. Tali compiti "difficile da risolvere ma facile da verificare" rendendoli ideali per l’addestramento degli agenti di intelligenza artificiale.
Ricerca approfondita Durante la formazione, ha utilizzato strumenti del mondo reale (API di ricerca web reali, ambienti di codifica e notebook Jupyter) e ha creato istruzioni sintetiche per garantire varietà. Il risultato è un modello che generalizza a strumenti e ambienti invisibili, una capacità fondamentale per l’implementazione nel mondo reale.
La scommessa open source di DeepSeek potrebbe sconvolgere il modello di business del settore dell’intelligenza artificiale
A differenza di OpenAI e Anthropic, che mantengono i loro modelli più forti come entità proprietarie, DeepSeek li ha rilasciati entrambi V3.2 E V3.2-Personalizzato Sotto la licenza MIT, uno dei framework open source più permissivi disponibili.
Qualsiasi sviluppatore, ricercatore o azienda può scaricare, modificare e distribuire modelli con 685 miliardi di parametri senza restrizioni. Pesi del modello completo, codice di formazione e documentazione Disponibile presso Hugging FaceLa piattaforma leader per la condivisione di modelli IA.
Le implicazioni strategiche sono importanti. Rendendo disponibili gratuitamente modelli transfrontalieri, DeepSeek sminuisce i concorrenti che applicano prezzi API premium. La scheda del modello Hugging Face afferma che DeepSeek fornisce script Python e casi di test "Mostra come codificare i messaggi in un formato compatibile con OpenAI" — agevolare la migrazione dai servizi concorrenti.
La proposta di valore per i clienti aziendali è convincente: prestazioni superiori a costi notevolmente inferiori con flessibilità di implementazione. Ma le preoccupazioni sulla residenza dei dati e l’incertezza normativa potrebbero limitare l’adozione in applicazioni sensibili, soprattutto data l’origine cinese di DeepSeek.
I muri normativi contro DeepSeek stanno crescendo in Europa e in America
L’espansione globale di DeepSeek si trova ad affrontare una crescente resistenza. A giugno, il commissario per la protezione dei dati di Berlino, Meike Kamp, ha annunciato che a DeepSeek era vietato trasferire i dati degli utenti tedeschi in Cina. "illegale" Chiediamo ad Apple e Google di prendere in considerazione il blocco dell’app in linea con le norme dell’UE.
Le autorità tedesche hanno espresso preoccupazione "Le autorità cinesi hanno ampi diritti di accesso ai dati personali all’interno del dominio delle aziende cinesi." L’Italia ha incaricato DeepSeek bloccare l’app A febbraio. I legislatori statunitensi si sono mossi servizio di divieto dai dispositivi governativi, citando preoccupazioni per la sicurezza nazionale.
Rimangono dubbi anche sui controlli sulle esportazioni statunitensi progettati per limitare le capacità di intelligenza artificiale della Cina. DeepSeek ad agosto, la Cina in arrivo "prossima generazione" Chip prodotti internamente per supportare i loro modelli. L’azienda ha dichiarato che i suoi sistemi funzionano con chip di fabbricazione cinese. Huawei E cambricon senza installazione aggiuntiva.
Secondo quanto riferito, il modello V3 originale di DeepSeek è stato addestrato su circa 2.000 modelli precedenti Chip Nvidia H800 – Da allora l’hardware è stato limitato all’esportazione cinese. L’azienda non ha rivelato cosa sia alla base della sua formazione V3.2, ma i suoi continui progressi dimostrano che i soli controlli sulle esportazioni non fermeranno il progresso dell’intelligenza artificiale in Cina.
Cosa significa il lancio di DeepSeek per il futuro della competizione AI?
La pubblicazione arriva in un momento cruciale. Dopo anni di massicci investimenti, alcuni analisti si chiedono se non si stia formando una bolla sull’intelligenza artificiale. La capacità di DeepSeek di eguagliare i modelli di frontiera americani a un costo molto basso mette in discussione il presupposto secondo cui la leadership dell’intelligenza artificiale richiede ingenti esborsi di capitale.
dell’azienda relazione tecnica rivela che gli investimenti post-formazione superano ormai il 10% dei costi pre-formazione; Si tratta di uno stanziamento significativo per miglioramenti del ragionamento. Ma DeepSeek ammette delle lacune: "L’ampiezza della conoscenza del mondo in DeepSeek-V3.2 è ancora in ritardo rispetto ai principali modelli proprietari," si legge nel rapporto. L’azienda prevede di risolvere questo problema ridimensionando il calcolo pre-formazione.
DeepSeek-V3.2-Personalizzato Rimarrà disponibile tramite un’API temporanea fino al 15 dicembre, quando le sue funzionalità verranno unificate con la versione standard. La variante Speciale è progettata specificamente per il ragionamento profondo e non supporta il ride-hailing, una limitazione affrontata dal modello standard.
Per ora, la corsa all’intelligenza artificiale tra Stati Uniti e Cina è entrata in una nuova fase. Il comunicato di DeepSeek mostra che i modelli open source possono raggiungere prestazioni superiori, le innovazioni in termini di efficienza possono ridurre significativamente i costi e i sistemi di intelligenza artificiale più potenti potrebbero presto essere disponibili gratuitamente per chiunque disponga di una connessione Internet.
Come ha osservato un commentatore di X: "È pazzesco che Deepseek abbia accidentalmente superato i parametri storici stabiliti da Gemini."
La questione non è più se l’intelligenza artificiale cinese possa competere con la Silicon Valley. La domanda è se le aziende americane riusciranno a mantenere la loro leadership nel caso in cui i loro rivali cinesi distribuissero gratuitamente tecnologie simili.















