Mentre si stima che gli investimenti globali nell’intelligenza artificiale raggiungeranno $ 1,5 trilioni Nel 2025, meno della metà dei leader aziendali Abbi fiducia nella capacità della tua organizzazione di mantenere la continuità del servizio, la sicurezza e il controllo dei costi in caso di eventi imprevisti. Questa mancanza di fiducia, combinata con la profonda complessità introdotta dal processo decisionale autonomo dell’intelligenza artificiale e dalle interazioni con le infrastrutture critiche, richiede una rivisitazione della resilienza digitale.

Le organizzazioni si stanno rivolgendo al concetto di data fabric: un’architettura unificata che collega e controlla le informazioni su tutti i livelli aziendali. Abbattendo i silos e consentendo l’accesso in tempo reale ai dati a livello aziendale, un data fabric può consentire sia ai team umani che ai sistemi di intelligenza artificiale degli agenti di comprendere i rischi, prevenire i problemi prima che si verifichino, recuperare rapidamente quando si verificano e mantenere le operazioni.

Dati macchina: la pietra angolare dell’intelligenza artificiale e della resilienza digitale

I precedenti modelli di intelligenza artificiale facevano molto affidamento su dati generati dall’uomo come testo, audio e video, ma l’intelligenza artificiale degli agenti richiede una visione più approfondita dei dati macchina di un’organizzazione: registri, metriche e altri dati di telemetria generati da dispositivi, server, sistemi e applicazioni.

Per utilizzare l’intelligenza artificiale per migliorare la resilienza digitale, è necessario un accesso continuo e in tempo reale a questo flusso di dati. Senza un’integrazione completa dei dati delle macchine, le organizzazioni rischiano di limitare le capacità dell’intelligenza artificiale, di perdere importanti incoerenze o di introdurre errori. Come sottolinea Kamal Hathi, vicepresidente senior e direttore generale di Splunk, una società Cisco, i sistemi di intelligenza artificiale si basano sui dati della macchina per comprendere il contesto, simulare i risultati e ottimizzare continuamente. Ciò rende l’ispezione dei dati macchina una pietra angolare della resilienza digitale.

“Spesso descriviamo i dati macchina come il cuore pulsante dell’impresa moderna”, afferma Hathi. “I sistemi di intelligenza artificiale degli agenti sono guidati da questo impulso vitale, che richiede l’accesso in tempo reale alle informazioni. È essenziale che questi agenti intelligenti operino direttamente su flussi complessi di dati della macchina e che l’intelligenza artificiale sia addestrata utilizzando lo stesso flusso di dati.”

Poche organizzazioni stanno attualmente raggiungendo il livello di integrazione dei dati macchina necessario per abilitare completamente i sistemi ad agenti. Ciò non solo limita la portata dei potenziali casi d’uso dell’intelligenza artificiale con agenti, ma, peggio ancora, può anche comportare incoerenze dei dati ed errori negli output o nelle azioni. I modelli di elaborazione del linguaggio naturale (NLP) progettati prima dello sviluppo dei trasformatori generativi pre-addestrati (GPT) soffrivano di ambiguità, pregiudizi e incoerenze linguistiche. Insidie ​​simili possono verificarsi con l’intelligenza artificiale se le organizzazioni vanno avanti senza fornire modelli con un flusso fondamentale nei dati della macchina.

Per molte aziende, tenere il passo con il ritmo rapido con cui l’intelligenza artificiale sta progredendo ha rappresentato una sfida importante. “In un certo senso, questo ritmo di innovazione sta cominciando a danneggiarci, perché crea rischi ai quali non siamo preparati”, afferma Hathi. “Il problema è che con l’avvento dell’IA agentica, fare affidamento sui tradizionali LLM addestrati su dati umani di testo, audio, video o stampa non funziona più quando è necessario mantenere i propri sistemi sicuri, resilienti e sempre disponibili”.

Progettare un data fabric per la resilienza

Per superare queste carenze e costruire la resilienza digitale, i leader tecnologici dovrebbero concentrarsi su ciò che Hathi descrive come progettazione del tessuto dei dati, più adatta alle esigenze dell’intelligenza artificiale degli agenti. Ciò comporta il collegamento di risorse frammentate provenienti da sicurezza, IT, operazioni aziendali e reti per creare un’architettura unificata che colleghi fonti di dati disparate, abbatta i silos e consenta l’analisi e la gestione dei rischi in tempo reale.

Collegamento alla fonte