La corsa per implementare l’agente AI è iniziata. I sistemi in grado di pianificare, agire e collaborare tra le applicazioni aziendali dell’intera organizzazione promettono un’efficienza senza precedenti. Ma nella fretta dell’automazione si trascura una componente fondamentale: la sicurezza scalabile. Stiamo costruendo una forza lavoro di lavoratori digitali senza fornire loro un modo sicuro per effettuare il login, accedere ai dati e svolgere il proprio lavoro senza rischiare il disastro.

Il problema fondamentale è che la tradizionale gestione delle identità e degli accessi (IAM) progettata per gli esseri umani fallisce su scala di intermediazione. Controlli come ruoli statici, password di lunga durata e conferme una tantum sono inutili quando le identità non umane superano quelle umane in un rapporto di 10 a uno. Per sfruttare la potenza dell’intelligenza artificiale dell’agenzia, l’identità deve evolversi da un semplice controller di accesso al piano di controllo dinamico per l’intera operazione di intelligenza artificiale.

“Il modo più veloce per ottenere un’intelligenza artificiale responsabile è evitare i dati reali. Utilizzare dati sintetici per dimostrare valore, quindi guadagnarsi il diritto di toccare la realtà.” — Shawn Kanungo, relatore principale e stratega dell’innovazione; Autore del bestseller The Bold Ones

Perché il tuo IAM incentrato sulle persone è una papera?

L’IA Agentic non utilizza solo software; si comporta come un utente. Si autentica nei sistemi, assume ruoli e chiama le API. Se tratti questi intermediari come semplici funzionalità di un’applicazione, favorisci l’infiltrazione di privilegi invisibili e azioni non tracciabili. Un singolo agente con autorizzazioni eccessive può far trapelare dati alla velocità della macchina o attivare processi aziendali difettosi; Nessuno se ne rende conto finché non è troppo tardi.

La natura statica dell’IAM legacy è la principale vulnerabilità. Non è possibile predefinire un ruolo fisso per un agente le cui attività e l’accesso ai dati richiesti possono cambiare quotidianamente. L’unico modo per mantenere precise le decisioni sull’accesso è spostare l’implementazione delle policy da una concessione una tantum a una valutazione runtime continua.

Dimostrare il valore prima dei dati di produzione

La guida di Kanungo offre un pratico trampolino di lancio. Inizia con set di dati sintetici o mascherati per convalidare i flussi di lavoro, la copertura e i guardrail degli agenti. Quando le tue policy, i tuoi registri e i tuoi percorsi vengono conservati in questo spazio virtuale, puoi trasformare gli intermediari in dati reali con sicurezza e chiare prove di audit.

Costruire un modello operativo incentrato sull’identità per l’intelligenza artificiale

Garantire questa nuova forza lavoro richiede un cambiamento di mentalità. Ogni agente AI dovrebbe essere trattato come un cittadino di prima classe all’interno del tuo ecosistema identitario.

Innanzitutto, ogni agente ha bisogno di un’identità unica e verificabile. Questa non è solo un’identità tecnica; Deve essere legato a un proprietario umano, a un caso d’uso aziendale specifico e a una distinta base del software (SBOM). L’era degli account di servizi condivisi è finita; questi equivalgono a dare la chiave principale a un mob senza volto.

In secondo luogo, sostituisci i ruoli “imposta e dimentica” con autorizzazioni basate sulla sessione e consapevoli del rischio. L’accesso dovrebbe essere concesso just-in-time, limitato all’attività immediata e al set di dati minimo richiesto, quindi revocato automaticamente una volta completato il lavoro. È come dare al rappresentante la chiave di una singola stanza per una singola riunione, anziché la chiave principale dell’intero edificio.

Tre pilastri di un’architettura di sicurezza scalabile per agenti

Autorizzazione essenzialmente sensibile al contesto. L’empowerment non può più essere un semplice sì o no alla porta. Dovrebbe essere una conversazione costante. I sistemi devono valutare il contesto in tempo reale. La presenza digitale dell’agente è stata verificata? Richiede dati rilevanti per il suo scopo? Questo accesso avviene durante una normale finestra operativa? Questa valutazione dinamica garantisce sicurezza e velocità.

Accesso mirato ai dati all’edge. L’ultima linea di difesa è il livello dati stesso. Incorporando l’applicazione delle policy direttamente nel motore di query dei dati, puoi applicare la sicurezza a livello di riga e di colonna in base allo scopo dichiarato dell’agente. A un rappresentante del servizio clienti dovrebbe essere automaticamente impedito di eseguire una query che sembra progettata per l’analisi finanziaria. L’associazione dell’intento garantisce che i dati vengano utilizzati come previsto e non solo che vi acceda un’identità autorizzata.

A prova di manomissione per impostazione predefinita. In un mondo di azioni autonome, la controllabilità è indiscutibile. Ogni decisione di accesso, query di dati e chiamata API dovrebbe essere invariabilmente registrata, registrando chi, cosa, dove e perché. Collega i registri in modo che siano a prova di manomissione e riproducibili per gli auditor o i team di risposta agli incidenti, fornendo una descrizione chiara delle attività di ciascun agente.

Una tabella di marcia pratica per iniziare

Inizia con un inventario delle identità. Cataloga tutte le identità non umane e gli account di servizio. Probabilmente troverai condivisione e overprovisioning. Inizia a emettere ID univoci per ogni carico di lavoro dell’agente.

Pilota una piattaforma di accesso just-in-time. Implementare uno strumento che fornisca credenziali complete e di breve durata per un progetto specifico. Ciò dimostra il concetto e dimostra i vantaggi operativi.

Applica credenziali temporanee. Emetti token che scadono in pochi minuti, non in mesi. Cerca e rimuovi chiavi API statiche e segreti dal codice e dalla configurazione.

Creare una sandbox di dati sintetici. Verificare innanzitutto i flussi di lavoro, gli ambiti, i prompt e le policy degli agenti relativi ai dati sintetici o mascherati. Passa ai dati reali solo dopo aver superato controlli, log e policy di uscita.

Condurre un esercizio sul tavolo del caso dell’agente. Esercitati sulle risposte a credenziali trapelate, onboarding istantaneo o aggiornamento dello strumento. Dimostra che puoi revocare l’accesso, ruotare le credenziali e isolare un agente in pochi minuti.

Insomma

Non è possibile gestire un futuro guidato dall’intelligenza artificiale e mediato dagli strumenti di identità dell’era umana. Le organizzazioni vincitrici riconosceranno l’identità come il sistema nervoso centrale delle operazioni di intelligenza artificiale. Rendi l’identità il piano di controllo, sposta l’autorizzazione al runtime, collega l’accesso ai dati all’intento e dimostra il valore dei dati sintetici prima di toccare quelli reali. In questo modo, puoi raggiungere un milione di agenti senza aumentare il rischio di violazione.

Michelle Buckner è un’ex responsabile della sicurezza dei sistemi informativi della NASA (ISSO).

Collegamento alla fonte