Ogni leader del SOC conosce la sensazione: annegato negli allarmi, cieco di fronte alla minaccia reale, bloccato nel gioco di difesa in una guerra condotta alla velocità dell’IA.

Ora CrowdStrike E NVIDIA Capovolgono la sceneggiatura. Armati di agenti autonomi basati sui modelli Charlotte AI e NVIDIA Nemotron, i team di sicurezza non si limitano a reagire; Rispondono agli aggressori prima della loro prossima mossa. Benvenuti nella nuova corsa agli armamenti della sicurezza informatica. La combinazione dei numerosi punti di forza dell’open source con l’intelligenza artificiale delle agenzie sposterà gli equilibri di potere contro l’intelligenza artificiale avversaria.

CrowdStrike e l’ecosistema di agenti NVIDIA si stanno fondendo Charlotte AI AgentWorks, NVIDIA Nemotron modelli aperti, Progettista dati NVIDIA NeMo dati sintetici, Kit di strumenti NVIDIA Nemo ToolE Microservizi NVIDIA NIM.

"Questa collaborazione ridefinisce le operazioni di sicurezza consentendo agli analisti di creare e implementare soluzioni personalizzate. agenti di intelligenza artificiale Sfruttare la sicurezza affidabile a livello aziendale con i modelli Nemotron, su larga scala," scrive Bryan Catanzaro, vicepresidente, NVIDIA Applied Deep Learning Research.

La partnership è progettata per consentire agli agenti autonomi di apprendere rapidamente, riducendo rischi, minacce e falsi positivi. Il raggiungimento di questo obiettivo alleggerisce il pesante fardello dei leader SOC e dei loro team, che quasi ogni giorno lottano con l’affaticamento dei dati a causa di dati errati.

L’annuncio al GTC di Washington DC segnala l’arrivo di difese a velocità di macchina che possono finalmente eguagliare gli attacchi a velocità di macchina.

Trasformare le competenze degli analisti d’élite in set di dati su scala industriale

La partnership differisce nel modo in cui gli agenti AI sono progettati per aggregare continuamente i dati di telemetria. CrowdStrike Falcon Rilevamento e risposta completamente gestiti analisti.

"Ciò che possiamo fare è prendere l’intelligenza, i dati, l’esperienza dei nostri analisti Falcon Complete e trasformare questi esperti in set di dati. Trasforma i set di dati in modelli AI e poi possiamo creare agenti basati sull’intera composizione ed esperienza che abbiamo costruito internamente in modo che i nostri clienti possano sempre sfruttare tali agenti su larga scala." Dan Bernard, Chief Operating Officer di CrowdStrike, ha detto in un recente briefing.

Sfruttando i punti di forza dei modelli aperti di NVIDIA Nemotron, le organizzazioni saranno in grado di consentire ai propri agenti autonomi di apprendere continuamente attraverso la formazione sui set di dati di Falcon Complete, il servizio MDR più grande al mondo che elabora milioni di decisioni di definizione delle priorità mensilmente.

CrowdStrike ha precedenti esperienze con la definizione delle priorità di rilevamento dell’intelligenza artificiale, al punto da lanciare un servizio che adatta questa capacità a tutta la sua base di clienti. Triage di rilevamento AI di Charlotte, Progettato per integrarsi nei flussi di lavoro di sicurezza esistenti e adattarsi continuamente alle minacce in evoluzione, automatizza la valutazione degli avvisi con una precisione superiore al 98% e riduce la definizione manuale delle priorità di oltre 40 ore a settimana.

Elia Zaitsev, Chief Technology Officer di CrowdStrike, spiega come Charlotte AI Detection Triage è in grado di fornire questo livello di prestazioni. ha detto a VentureBeat: "Non avremmo potuto farlo senza il supporto del nostro team Falcon Complete. Stabiliscono le priorità all’interno dei flussi di lavoro gestendo manualmente milioni di rilevamenti. Il set di dati di alta qualità con annotazioni umane fornito ci ha permesso di ottenere una precisione superiore al 98%."

Le lezioni apprese con Charlotte AI Detection Triage si applicano direttamente alla partnership NVIDIA, aumentando ulteriormente il valore che può potenzialmente offrire ai SOC che necessitano di aiuto per gestire il flusso di avvisi.

L’open source è importante affinché questa partnership funzioni

I modelli aperti Nemotron di NVIDIA affrontano ciò che molti leader della sicurezza identificano come la barriera più critica all’adozione dell’intelligenza artificiale in ambienti regolamentati: la mancanza di chiarezza su come funziona il modello, quali sono i suoi pesi e quanto sia sicuro.

Parlando a nome di NVIDIA in una recente conferenza stampa, Justin Boitano, Vice Presidente Enterprise ed Edge Computing di NVIDIA, ha spiegato: "I modelli aperti sono i luoghi in cui le persone iniziano a costruire la propria conoscenza del dominio. Dopotutto, vuoi possedere l’IP. Non tutti vogliono esportare i propri dati e poi in qualche modo importare o pagare per l’intelligence che consumano. Molti paesi sovrani e molte organizzazioni di settori regolamentati desiderano proteggere la privacy e la sicurezza di tutti questi dati."

John Morello, CTO e co-fondatore di Gutsy (ora minimo), ha detto a VentureBeat LUI "natura open source BERT di Google Il modello linguistico open source consente a Gutsy di personalizzare e addestrare il proprio modello per casi d’uso di sicurezza specifici mantenendo privacy ed efficienza." Morello ha sottolineato che i praticanti citano "Maggiori competenze e più opzioni di integrazione sono offerte attraverso le loro architetture, insieme a una maggiore trasparenza e migliori garanzie sulla privacy dei dati come ragioni principali per scegliere l’open source."

Mantenere sotto controllo l’equilibrio di potere dell’IA rivale

Cisco DJ Sampath, vicepresidente senior del gruppo software e piattaforme AI di Cisco, ha espresso l’imperativo a livello di settore per modelli di sicurezza open source Durante una recente intervista con VentureBeat: "La verità è che gli aggressori hanno accesso anche a modelli open source. L’obiettivo è dare potere al maggior numero possibile di difensori con modelli robusti per rafforzare la sicurezza."

Sampath ha spiegato che quando Cisco ha lanciato il suo modello di sicurezza open source Foundation-Sec-8B all’RSAC 2025, è stato per senso di responsabilità: "I finanziamenti per i progetti open source sono in fase di stallo e vi è una crescente necessità all’interno della comunità di fonti di finanziamento sostenibili. È responsabilità aziendale fornire questi modelli consentendo al tempo stesso alle comunità di impegnarsi con l’intelligenza artificiale in modo difensivo."

L’impegno per la trasparenza si estende agli aspetti più sensibili dello sviluppo dell’IA. Quando sono emerse preoccupazioni sui dati di addestramento di DeepSeek R1 e sui potenziali rischi, NVIDIA ha risposto con decisione.

Come ha spiegato Boitano a VentureBeat: "Le istituzioni statali erano molto preoccupate. Volevano le capacità di ragionamento di DeepSeek, ma francamente erano un po’ preoccupati per cosa si poteva addestrare sul modello DeepSeek; Questo è in realtà ciò che ci ha ispirato a rendere completamente open source tutto nei modelli Nemotron, compresi i set di dati di ragionamento."

Per i professionisti che gestiscono la sicurezza open source su larga scala, questa trasparenza è il fondamento delle loro aziende. Itamar Sher, amministratore delegato Sigillo di sicurezzaevidenziato a VentureBeat LUI "i modelli open source offrono trasparenza," Tuttavia, se ne rese conto "La gestione dei cicli e la conformità rimangono una delle principali preoccupazioni." L’azienda di Sher utilizza l’intelligenza artificiale generativa per automatizzare la correzione delle vulnerabilità nel software open source e, in qualità di CVE Naming Authority (CNA) riconosciuta, Seal può identificare, documentare e assegnare le vulnerabilità, migliorando la sicurezza in tutto l’ecosistema.

Un obiettivo chiave della partnership: portare l’intelligenza nell’edge

"Portare l’intelligence più vicino al luogo in cui risiedono i dati e dove vengono prese le decisioni rappresenterà un grande passo avanti per i team addetti alle operazioni di sicurezza di tutto il settore." Ha sottolineato Boitano. Questa capacità di implementazione edge è particolarmente critica per gli enti pubblici con ambienti IT frammentati e spesso legacy.

VentureBeat ha chiesto a Boitano come sono andate le conversazioni iniziali con le agenzie governative per informarlo della partnership e degli obiettivi di progettazione prima dell’inizio dei lavori. "La sensazione delle agenzie con cui abbiamo parlato è questa: purtroppo sono sempre in ritardo nell’adozione di questa tecnologia." Boitano ha spiegato. "La risposta era tutto ciò che potevi fare per aiutarci a proteggere gli endpoint. Il porting di modelli aperti su queste reti di livello superiore è stato un processo lungo e noioso."

NVIDIA e CrowdStrike hanno gettato le basi, tra cui il rafforzamento STIG, la crittografia FIPS, la conformità air-gap e la rimozione degli ostacoli che hanno ritardato l’adozione del modello aperto nelle reti over-the-top. NVIDIA AI Factory per la progettazione di riferimento governativa Fornisce una guida completa per l’implementazione di agenti IA in organizzazioni federali e ad alta garanzia, soddisfacendo al tempo stesso i requisiti di sicurezza più rigorosi.

L’urgenza è esistenziale, come spiega Boitano: "Il corollario di ciò è avere difese IA sulla tua proprietà in grado di cercare e rilevare queste anomalie e quindi avvisare e rispondere molto più rapidamente. A questo punto, questo è l’unico modo per proteggersi dalla velocità dell’intelligenza artificiale."

Collegamento alla fonte