Active Directory, LDAP e il primo PAM sono stati sviluppati per gli esseri umani. Gli agenti e le macchine IA erano l’eccezione. Oggi sono in inferiorità numerica, 82 a 1, e questo modello di identità “people first” sta crollando alla velocità della macchina.

Gli agenti IA rappresentano la classe di identità macchina in più rapida crescita e meno gestita e non solo si autenticano, ma agiscono. ServiceNow ha speso circa 11,6 miliardi di dollari in acquisti di sicurezza solo nel 2025; Questo è un segnale che il piano di controllo per il rischio dell’IA aziendale sta diventando identità, non modelli.

La ricerca 2025 di CyberArk Ciò conferma ciò che i team di sicurezza e gli sviluppatori di intelligenza artificiale sospettavano da tempo: le identità delle macchine ora superano di gran lunga quelle umane. Microsoft Gli utenti di Copilot Studio hanno creato oltre 1 milione di agenti AI in un solo trimestre; Questo numero è aumentato del 130% rispetto al periodo precedente. Gartner prevede Si prevede che entro il 2028, il 25% delle violazioni aziendali deriverà dall’uso improprio degli agenti IA.

Perché le architetture legacy falliscono su scala macchina?

Gli sviluppatori non creano intermediari ombra o account di servizio eccessivamente consentiti per negligenza. Lo fanno perché l’IAM del cloud è lento, le revisioni della sicurezza non sono chiaramente mappate sui flussi di lavoro degli agenti e la pressione della produzione premia la velocità rispetto alla precisione. Le credenziali statiche diventano il percorso di minor resistenza finché non diventano un vettore di violazione.

Gli analisti di Gartner spiegano il problema principale Un rapporto pubblicato a maggio: "Gli approcci IAM tradizionali progettati per gli utenti umani non riescono a soddisfare i requisiti specifici delle macchine, come dispositivi e carichi di lavoro."

La loro ricerca identifica perché il rinforzo fallisce: "Il rinnovamento degli approcci IAM umani per adattarli ai casi d’uso IAM delle macchine comporta una gestione frammentata e inefficace delle identità delle macchine, non rispetta i requisiti normativi ed espone l’organizzazione a rischi inutili."

Il divario di governance è molto grave. Prospettive sulla sicurezza dell’identità 2025 di CyberArk L’indagine condotta su 2.600 decisori nel campo della sicurezza rivela una pericolosa disconnessione: sebbene le identità delle macchine ora superino quelle umane in un rapporto di 82 a 1, l’88% delle organizzazioni identifica ancora le identità umane solo come: "utenti privilegiati" Di conseguenza, gli ID macchina hanno effettivamente un tasso di accesso sensibile più elevato rispetto agli esseri umani.

Quella cifra del 42% rappresenta milioni di chiavi API, account di servizio e processi automatizzati con accesso a gemme importanti, il tutto regolato da policy progettate per l’accesso e l’uscita dei dipendenti.

Il divario di visibilità aggrava il problema. UN. Ricerca Gartner Ciascuno dei 335 leader IAM ha scoperto che i team IAM erano responsabili solo del 44% delle identità delle macchine di un’organizzazione; Ciò significa che la maggioranza opera al di fuori della visibilità della sicurezza. Senza una strategia IAM macchina coerente, Gartner avverte: "le organizzazioni corrono il rischio di compromettere la sicurezza e l’integrità della propria infrastruttura IT."

Guida dei leader Gartner Spiega perché gli account di servizio legacy rappresentano un rischio sistemico: persistono anche dopo che i carichi di lavoro che supportano sono scomparsi, lasciando credenziali orfane senza proprietario o ciclo di vita chiari.

Nella maggior parte delle violazioni aziendali indagate nel 2024, gli aggressori non hanno compromesso modelli o endpoint. Hanno riutilizzato chiavi API di lunga durata legate a flussi di lavoro di automazione abbandonati; Chiavi che nessuno si accorgeva perché l’agente che le aveva create non esisteva più erano ancora attive.

Elia ZaitsevCrowdStrike In una recente intervista a VentureBeat, il CTO ha spiegato perché gli aggressori si stanno allontanando dagli endpoint verso l’identità: "Poiché è molto difficile operare senza restrizioni sull’endpoint, i luoghi in cui opera il nemico sono il cloud, gli strumenti di gestione remota e dell’identità e le credenziali legittime. Perché provare a bypassare e creare problemi con una piattaforma complessa come CrowdStrike sull’endpoint quando puoi accedere come utente amministratore?"

Perché l’intelligenza artificiale delle agenzie sta sconvolgendo i presupposti dell’identità?

L’emergere di agenti IA che richiedono le proprie credenziali introduce una categoria di identità macchina che i sistemi legacy non si sarebbero mai aspettati o per cui non erano stati progettati. Ricercatori Gartner In particolare, notiamo che l’AI dell’agenzia è un caso d’uso critico: "Le credenziali sono necessarie affinché gli agenti AI possano interagire con altri sistemi. In alcuni casi utilizzano credenziali umane autorizzate, mentre in altri lavorano con le proprie credenziali. L’ambito di tali credenziali deve essere determinato attentamente per rispettare il principio del privilegio minimo."

I ricercatori indicano anche il Model Context Protocol (MCP) come esempio di questa sfida; gli stessi ricercatori sulla sicurezza del protocollo hanno segnalato la mancanza di autenticazione integrata. Non solo a MCP manca l’autenticazione; Inoltre, abbatte i tradizionali confini dell’identità consentendo agli agenti di spostarsi tra dati e strumenti senza una superficie di identità stabile e verificabile.

Il problema della governance è aggravato dal fatto che le organizzazioni implementano più strumenti GenAI contemporaneamente. I team di sicurezza hanno bisogno di visibilità su quali integrazioni di intelligenza artificiale abbiano capacità di azione, inclusa la capacità di eseguire attività e non solo di generare testo, e se tali capacità abbiano un ambito appropriato.

Le piattaforme che combinano identità, endpoint e telemetria cloud stanno emergendo come l’unico modo praticabile per rilevare l’abuso degli agenti in tempo reale. Gli utensili a punta frammentata non riescono a tenere il passo con il movimento laterale alla velocità della macchina.

Le interazioni macchina-macchina operano già a una scala e a una velocità che i modelli di governance umana non potranno mai affrontare.

Prevenire le modifiche dinamiche dell’identità del servizio

La ricerca di Gartner indica le identità di servizio dinamiche come la via da seguire. Sono definite come credenziali temporanee, con un ambito limitato e basate su policy che riducono notevolmente la superficie di attacco. Ecco perché Gartner offre i seguenti consigli ai leader della sicurezza: "Invece di utilizzare per impostazione predefinita un modello di account di servizio legacy, passa a un modello di identità di servizio dinamico. Le identità di servizio dinamiche non richiedono la creazione di account separati, riducendo così il carico amministrativo e la superficie di attacco."

L’obiettivo finale è ottenere un accesso just-in-time e zero privilegi. Le piattaforme che combinano identità, endpoint e telemetria sul cloud stanno diventando sempre più l’unico modo praticabile per rilevare e contenere gli abusi degli intermediari nell’intera catena di attacchi alle identità.

Passi pratici che gli sviluppatori di sicurezza e intelligenza artificiale possono intraprendere oggi

Le organizzazioni che comprendono correttamente l’identità dell’agente la trattano come un problema di collaborazione tra i team di sicurezza e gli sviluppatori di intelligenza artificiale. Sulla base della Leaders Guide di Gartner, delle linee guida di OpenID Foundation e delle best practice dei fornitori, queste priorità emergono per le organizzazioni che implementano agenti AI.

  • Innanzitutto, esegui un’individuazione e un controllo approfonditi di ciascun account e credenziale. È una buona idea stabilire innanzitutto una linea di base per vedere quanti account e credenziali vengono utilizzati su tutte le macchine dell’IT. I CISO e i leader della sicurezza dicono a VentureBeat che questo spesso rivela da sei a dieci volte più identità di quelle che il team di sicurezza conosceva prima dell’audit. Una catena alberghiera ha scoperto di aver tracciato solo un decimo degli ID delle sue macchine prima di un controllo.

  • Stabilire e gestire rigorosamente l’inventario degli agenti prima della produzione. Oltre a ciò, garantisce che gli sviluppatori di intelligenza artificiale sappiano cosa stanno implementando e che i team di sicurezza sappiano cosa devono monitorare. Quando c’è troppo divario tra queste funzioni, è più facile creare agenti ombra ed eludere la governance nel processo. Un registro condiviso deve tenere traccia della proprietà, delle autorizzazioni, dell’accesso ai dati e delle connessioni API per l’identità di ciascun agente prima che gli agenti raggiungano gli ambienti di produzione.

  • Vai all-in e padroneggia le identità di servizio dinamiche. Migrazione da account di servizio statici ad alternative native del cloud come ruoli AWS IAM, identità gestite di Azure o account di servizio Kubernetes. Queste identità sono temporanee e devono essere ben definite, gestite e basate su politiche. L’obiettivo è garantire la conformità fornendo allo stesso tempo agli sviluppatori di intelligenza artificiale le identità di cui hanno bisogno per sviluppare applicazioni.

  • Applica credenziali just-in-time sui segreti statici. L’integrazione del provisioning delle credenziali just-in-time, della rotazione automatica dei segreti e delle impostazioni predefinite con privilegi minimi nelle pipeline CI/CD e nei framework degli agenti è fondamentale. Questi sono tutti elementi chiave dello zero trust che dovrebbero essere fondamentali per le pipeline devops. Ascolta il consiglio di esperti leader della sicurezza che difendono gli sviluppatori di intelligenza artificiale, che spesso dicono a VentureBeat di trasmettere il consiglio di non fare mai affidamento sulla sicurezza perimetrale nei flussi di lavoro di sviluppo AI o nei processi CI/CD. Porre grande enfasi sullo zero trust e sulla sicurezza dell’identità quando si tratta di proteggere i flussi di lavoro degli sviluppatori di intelligenza artificiale.

  • Creare catene di delega verificabili. Quando gli agenti creano subagenti o chiamano API esterne, le catene di autorizzazione diventano difficili da tracciare. Assicurati che gli esseri umani siano responsabili di tutti i servizi, compresi gli agenti IA. Le organizzazioni necessitano di basi comportamentali e di rilevamento delle deviazioni in tempo reale per mantenere la responsabilità.

  • Distribuire il monitoraggio continuo. Monitora continuamente ogni utilizzo delle credenziali della macchina con l’obiettivo di padroneggiare l’osservabilità, in conformità con i principi Zero Trust. Ciò include il controllo, poiché aiuta a rilevare attività anomale come l’escalation di privilegi non autorizzati e lo spostamento laterale.

  • Considera la gestione della postura. Considera i potenziali percorsi di exploit, l’entità del danno potenziale (raggio dell’esplosione) e l’accesso dell’amministratore ombra. Ciò include la rimozione degli accessi non necessari o obsoleti e l’identificazione di configurazioni errate che gli aggressori possono sfruttare.

  • Inizia a implementare la gestione del ciclo di vita dell’agente. Ogni agente necessita della supervisione umana, sia come parte di un gruppo di agenti che nel contesto di un flusso di lavoro basato su agenti. Quando gli sviluppatori di intelligenza artificiale passano a nuovi progetti, i loro rappresentanti devono attivare gli stessi flussi di lavoro di onboarding dei dipendenti in partenza. Gli agenti orfani con privilegi permanenti possono diventare vettori di violazioni.

  • Dai priorità alle piattaforme unificate rispetto alle soluzioni puntuali. Gli strumenti frammentati creano una visibilità frammentata. Le piattaforme che combinano identità, endpoint e sicurezza cloud forniscono visibilità self-service agli sviluppatori di intelligenza artificiale fornendo al contempo rilevamento interdominio ai team di sicurezza.

Ci aspettiamo che il divario si allarghi nel 2026

Il divario tra ciò che gli sviluppatori di intelligenza artificiale implementano e ciò che i team di sicurezza possono gestire si sta ampliando. Sfortunatamente, ogni importante transizione tecnologica ha portato a un’altra generazione di violazioni della sicurezza che spesso mettono in discussione i calcoli specifici del settore. Poiché le configurazioni errate del cloud ibrido, l’intelligenza artificiale ombra e la proliferazione delle API continuano a mettere a dura prova i leader della sicurezza e gli sviluppatori di intelligenza artificiale che supportano, nel 2026 si amplierà il divario tra ciò che può essere contenuto quando si tratta di attacchi all’identità delle macchine e ciò che deve essere migliorato per fermare avversari determinati.

Il rapporto 82 a 1 non è statico. Sta accelerando. Le organizzazioni che continuano a fare affidamento su architetture IAM incentrate sulle persone non si limitano ad accettare debiti tecnici; Creano modelli di sicurezza che diventano più deboli con ogni nuovo agente distribuito.

L’AI Agentic non compromette la sicurezza perché è intelligente; Viola la sicurezza perché replica l’identità più velocemente di quanto la governance possa tenerne traccia. Per molte organizzazioni, la trasformazione di una delle più evidenti debolezze della sicurezza in un punto di forza inizia con la consapevolezza che la sicurezza delle identità legacy basata sul perimetro non può eguagliare l’intensità, la velocità e la portata degli attacchi machine-to-machine che rappresentano la nuova normalità e saranno prevalenti nel 2026.

Collegamento alla fonte