Nvidia Lunedì ha presentato un supercomputer desktop abbastanza potente da eseguire modelli di intelligenza artificiale con un massimo di trilioni di parametri (all’incirca sulla scala di GPT-4) senza toccare il cloud. chiamata macchina Stazione DGXRacchiude 748 gigabyte di memoria coerente e 20 petaflop di elaborazione in una scatola accanto al monitor e potrebbe essere il prodotto PC più importante da quando il Mac Pro originale convinse i professionisti creativi a rinunciare alle workstation.
Annuncio fatto alla riunione annuale della società Conferenza del GTC Siamo in un momento a San Jose in cui l’industria dell’intelligenza artificiale è alle prese con una tensione fondamentale: i modelli più potenti al mondo richiedono enormi infrastrutture di data center, ma gli sviluppatori e le aziende basate su tali modelli vogliono sempre più mantenere i propri dati, agenti e proprietà intellettuale a livello locale. DGX Station è la risposta di Nvidia; una macchina a sei cifre che riduce la distanza tra il confine dell’intelligenza artificiale e la scrivania di un singolo ingegnere.
Cosa significano in realtà 20 petaflop sul desktop?
Stazione DGX costruito attorno al nuovo Super chip desktop GB300 Grace Blackwell UltraCombina una CPU Grace a 72 core e una GPU Blackwell Ultra tramite l’interconnessione NVLink-C2C di Nvidia. Questa connessione fornisce una larghezza di banda costante di 1,8 terabyte al secondo tra i due processori (sette volte la velocità di PCIe Gen 6). Ciò significa che CPU e GPU condividono un unico pool di memoria ininterrotto senza i colli di bottiglia che spesso interrompono il lavoro dell’intelligenza artificiale desktop.
Venti petaflop, ovvero 20 quadrilioni di operazioni al secondo, avrebbero classificato questa macchina tra i migliori supercomputer del mondo meno di dieci anni fa. sistema dei vertici Laboratorio nazionale di Oak RidgeClassificato al primo posto a livello mondiale nel 2018, ha fornito prestazioni circa dieci volte superiori, ma occupava una stanza grande quanto due campi da basket. Nvidia sta racchiudendo una parte significativa di questa capacità in qualcosa che si collega a una presa a muro.
I 748 GB di memoria combinata sono probabilmente il numero più importante. I modelli con trilioni di parametri sono enormi reti neurali che devono essere caricate completamente in memoria per funzionare. La velocità di elaborazione non ha importanza quando non c’è abbastanza memoria; Il modello non si adatta. DGX Station supera questo limite e lo fa con un’architettura coerente che elimina le penalità di latenza create dallo scambio di dati tra pool di memoria CPU e GPU.
Gli agenti sempre attivi necessitano di hardware sempre attivo
Progettato da Nvidia Stazione DGX chiaramente per quella che vede come la prossima fase dell’intelligenza artificiale: non sistemi che rispondono semplicemente a suggerimenti, ma agenti autonomi che ragionano, pianificano, scrivono codici ed eseguono costantemente compiti. Ogni annuncio importante CGC 2026 lo ha rafforzato "intelligenza artificiale dell’agente" tesi e la stazione DGX è il luogo in cui questi agenti dovrebbero essere costruiti e gestiti.
Corrispondenza chiave NemoPenceSi tratta di un nuovo stack open source annunciato lunedì anche da Nvidia. NemoClaw combina i modelli aperti Nemotron di Nvidia OpenShellUn runtime sicuro che applica protezioni basate su policy, sicurezza di rete e privacy per agenti autonomi. Un singolo comando installa l’intero stack. Jensen Huang, fondatore e CEO di Nvidia, ha espresso chiaramente questa combinazione come segue: Artiglio aperto — Piattaforma agente più ampia basata su NemoClaw — "sistema operativo per l’intelligenza artificiale personale" e lo confrontiamo direttamente con Mac e Windows.
L’argomentazione è semplice: le istanze cloud si attivano e disattivano su richiesta, ma gli agenti sempre attivi necessitano di elaborazione persistente, memoria persistente e stato persistente. Una macchina sotto la scrivania, in funzione 24 ore su 24, 7 giorni su 7 con dati locali e modelli locali all’interno di una sandbox di sicurezza, è dal punto di vista architettonico più adatta a questo carico di lavoro rispetto a una GPU noleggiata nel data center di qualcun altro. DGX Station può funzionare come supercomputer personale per uno sviluppatore solista o come nodo di elaborazione condiviso per i team e supporta configurazioni air-gapped per ambienti classificati o regolamentati in cui i dati non possono mai lasciare l’edificio.
Dal prototipo della scrivania alla produzione del data center senza riscritture
Uno degli aspetti più intelligenti del design della DGX Station è ciò che Nvidia chiama continuità architettonica. Le applicazioni realizzate sulla macchina migrano senza problemi ai sistemi data center GB300 NVL72 dell’azienda, ovvero rack da 72 GPU progettati per fabbriche di intelligenza artificiale su vasta scala, senza la necessità di riprogettare una singola riga di codice. Nvidia vende una pipeline integrata verticalmente: prototipa sulla tua scrivania, quindi scala sul cloud quando sei pronto.
Questo è importante perché il più grande costo nascosto nello sviluppo dell’intelligenza artificiale oggi non è l’informatica; si tratta di tempo di progettazione perso per riscrivere il codice per diverse configurazioni hardware. Un modello messo a punto su un cluster GPU locale spesso richiede rielaborazioni significative per essere distribuito su un’infrastruttura cloud con architetture di memoria, stack di rete e dipendenze software diverse. DGX Station elimina questo attrito eseguendo lo stesso stack software NVIDIA AI che alimenta ogni livello dell’infrastruttura di Nvidia. DGX Scintilla A Vera Rubin NVL72.
Nvidia ha anche ampliato il fratello minore della Station, DGX Spark, con un nuovo supporto per il clustering. Fino a quattro unità Spark possono ora funzionare come un sistema unificato con un ridimensionamento delle prestazioni quasi lineare. "centro dati desktop" Un dispositivo che può stare su un tavolo da conferenza senza infrastruttura rack o ticketing IT. Per i team che necessitano di mettere a punto modelli di medie dimensioni o sviluppare agenti su scala più piccola, Sparks in cluster offre una piattaforma AI dipartimentale affidabile a una frazione del costo di Station.
I primi acquirenti rivelano dove sta andando il mercato
L’elenco iniziale dei clienti di DGX Station mappa i settori in cui l’intelligenza artificiale sta passando più rapidamente da esperimento a strumento operativo quotidiano. Snowflake sta utilizzando il sistema per testare localmente il suo quadro di addestramento artico open source. EPRIL’Electric Power Research Institute sta sviluppando previsioni meteorologiche basate sull’intelligenza artificiale per rafforzare l’affidabilità della rete elettrica. Medivis integra modelli di linguaggio visivo nei flussi di lavoro chirurgici. Microsoft Research e Cornell hanno implementato sistemi per la formazione pratica sull’intelligenza artificiale su larga scala.
I sistemi possono essere ordinati adesso e verranno spediti nei prossimi mesi ASUS, Tecnologie Dell, GIGABYTE, MSIE supermicrocon HP unendosi più avanti nel corso dell’anno. Nvidia non ha annunciato i prezzi, ma i componenti GB300 e il prezzo storico DGX dell’azienda indicano un investimento a sei cifre; costoso per gli standard delle workstation, ma relativamente economico rispetto ai costi della GPU cloud per l’esecuzione di un’inferenza di trilioni di parametri su larga scala.
L’elenco dei modelli supportati sottolinea quanto sia diventato aperto l’ecosistema AI: gli sviluppatori possono eseguire e mettere a punto OpenAI gpt-oss-120bGoogle Gemma 3, Qwen3, Mistral Grande 3, DeepSeek V3.2e i modelli Nemotron di Nvidia, tra gli altri. La stazione DGX è indipendente dal modello in base alla progettazione; È una Svizzera dell’hardware in un settore in cui i modelli di fedeltà cambiano su base trimestrale.
La vera strategia di Nvidia: possedere ogni livello dello stack AI, dall’orbita all’ufficio
Stazione DGX Non è arrivato dal nulla. Faceva parte di un set completo CGC 2026 Annunci che mappano collettivamente l’obiettivo di Nvidia di fornire l’informatica AI letteralmente su ogni scala fisica.
In alto, ha annunciato Nvidia Piattaforma Vera Rubin – sette nuovi chip in piena produzione – sono ancorati nel rack Vera Rubin NVL72, che integra 72 GPU Rubin di prossima generazione e vanta un’efficienza di inferenza per watt fino a 10 volte superiore rispetto all’attuale generazione Blackwell. vera CPUCon 88 core Olympus dedicati, si rivolge al livello di orchestrazione sempre più richiesto dai carichi di lavoro delle agenzie. All’estremo limite, Nvidia ha annunciato il Vera Rubin Space Module per data center orbitali, fornendo 25 volte più calcoli AI per l’inferenza spaziale rispetto all’H100.
Tra orbita e ufficio, Nvidia ha svelato partnership che includono Adobe per l’intelligenza artificiale creativa, case automobilistiche come BYD e Nissan per veicoli autonomi di livello 4, una coalizione con Mistral AI e altri sette laboratori per costruire modelli di frontiera aperta e Dynamo 1.0, un sistema operativo di inferenza open source già adottato da AWS, Azure, Google Cloud e un elenco di aziende native dell’intelligenza artificiale come Cursor e Perplexity.
Lo schema è chiaro: Nvidia vuole essere la piattaforma informatica composta da hardware, software e modelli per ogni carico di lavoro AI, ovunque. Stazione DGX È la parte che colma il divario tra la nuvola e l’individuo.
Il cloud non è morto, ma il suo monopolio sul lavoro serio sull’intelligenza artificiale sta finendo
Negli ultimi anni, il presupposto predefinito nell’intelligenza artificiale è stato che un lavoro serio richiede istanze GPU cloud; Noleggiare l’hardware Nvidia da un’azienda AWS, azzurroO GoogleNuvola. Questo modello funziona, ma comporta costi reali: tariffe per l’uscita dei dati, latenza, esposizione alla sicurezza dovuta all’invio di dati privati a infrastrutture di terze parti e la fondamentale perdita di controllo inerente al noleggio del computer di qualcun altro.
Stazione DGX non ucciderà il cloud: il business dei data center di Nvidia sta facendo impallidire le entrate dei desktop e sta crescendo rapidamente. Ma crea un’alternativa locale affidabile per una categoria importante e in crescita di carichi di lavoro. L’addestramento di un modello edge da zero richiede ancora migliaia di GPU in un magazzino. Vuoi mettere a punto un modello aperto da trilioni di parametri su dati proprietari? Inferire per un agente interno che gestisce documenti sensibili? Stai realizzando prototipi prima di impegnarti nella spesa per il cloud? Una macchina sotto la scrivania inizia a sembrare una scelta logica.
Questa è l’eleganza strategica del prodotto: espande il mercato indirizzabile di Nvidia nell’infrastruttura AI personale, rafforzando al contempo il suo business nel cloud, perché tutto ciò che è costruito in modo nativo è progettato per adattarsi alle piattaforme dei data center di Nvidia. Non è una questione di cloud e scrivania. questa nuvola E desktop e Nvidia fornisce entrambi.
Un supercomputer su ogni scrivania e un agente che non ci dorme mai
Lo slogan che definisce la rivoluzione dei PC era: "Un computer su ogni scrivania e in ogni casa." Quaranta anni dopo, Nvidia aggiorna la proposta con un’escalation inquietante. Stazione DGX Mette la vera potenza del supercalcolo (del tipo che alimenta i laboratori nazionali) accanto alla tastiera, e NemoClaw posiziona sopra di essa un agente AI autonomo che lavora 24 ore su 24, scrivendo codici, evocando strumenti e completando compiti mentre il suo proprietario dorme.
Se questo futuro sarà eccitante o inquietante dipende dalla tua prospettiva. Ma una cosa non è più in discussione: l’infrastruttura necessaria per costruire, eseguire e possedere l’intelligenza artificiale edge si è spostata dalla sala server al cassetto della scrivania. E l’azienda che vende quasi tutti i chip AI seri del pianeta si è assicurata di vendere anche il cassetto della scrivania.















