Sfida di responsabilità: non sono loro, sei tu

Fino ad ora, l’attenzione della governance si è concentrata sulla modellazione dei rischi di output con gli esseri umani prima di prendere decisioni consequenziali, come l’approvazione di prestiti o domande di lavoro. L’attenzione si è concentrata sul comportamento del modello, compresi deriva, allineamento, rimozione dei dati e tossicità. La velocità è stata impostata da un essere umano che motivava un modello in formato chatbot con molte interazioni avanti e indietro tra la macchina e l’uomo.

Oggi, con agenti autonomi che operano in flussi di lavoro complessi, la visione e i vantaggi dell’intelligenza artificiale applicata richiedono un numero significativamente inferiore di persone coinvolte nel processo. Il punto è gestire l’attività alla velocità della macchina automatizzando le attività manuali con un’architettura e regole decisionali chiare. L’obiettivo dal punto di vista della responsabilità non è la riduzione del rischio aziendale o aziendale tra la macchina che gestisce il flusso di lavoro e l’essere umano che gestisce il flusso di lavoro. CX oggi riassume La posizione in breve: “L’IA fa il lavoro, il rischio spetta agli esseri umani” e la legge dello stato della California (AB 316), in vigore dal 1° gennaio 2026, rimuove la scusa “L’ha fatto l’AI; non l’ho approvato”. Ciò è simile alla genitorialità, quando un adulto è ritenuto responsabile delle azioni di un bambino che hanno un impatto negativo sulla comunità più ampia.

La sfida è che senza la creazione di un codice che imponga una governance operativa coerente con diversi livelli di rischio e responsabilità lungo l’intero flusso di lavoro, i vantaggi degli agenti IA autonomi sono annullati. In passato, la governance era statica e adattata al tipico ritmo di conversazione dei chatbot. Tuttavia, l’intelligenza artificiale autonoma fin dalla progettazione esclude gli esseri umani da molte decisioni, il che potrebbe avere un impatto sulla governance.

Considerazione delle autorizzazioni

È come dare a un bambino di tre anni una console per videogiochi che controlla a distanza un carro armato Abrams o un drone armato, lasciando un sistema probabilistico in funzione senza barriere in tempo reale che potrebbero alterare dati aziendali critici che comportano rischi significativi. Ad esempio, gli agenti che integrano e concatenano attività su più sistemi aziendali possono avere privilegi superiori a quelli concessi a un utente umano. Per andare avanti con successo, la governance deve andare oltre le politiche stabilite dai comitati per adottare un codice operativo integrato nel flusso di lavoro fin dall’inizio.

Un meme divertente sul comportamento dei bambini con i giocattoli inizia con tutti i motivi per cui ogni giocattolo che hai è mio e termina con un giocattolo rotto che è sicuramente tuo. Ad esempio, OpenGL ha fornito un’esperienza utente simile a quella di lavorare con un assistente umano; ma l’entusiasmo è cambiato specialista della sicurezza Reso conto che gli utenti inesperti potrebbero essere facilmente compromessi utilizzandolo.

Per decenni, l’IT aziendale ha convissuto con lo shadow IT e con la realtà che team tecnologici qualificati devono prendere il controllo e ripulire risorse che non hanno costruito o installato, proprio come un bambino che restituisce un giocattolo rotto. Con gli agenti autonomi, i rischi sono maggiori: credenziali dell’account di servizio persistenti, token API di lunga durata e autorizzazione a prendere decisioni sul file system principale. Per affrontare questa sfida, è fondamentale allocare budget IT e manodopera adeguati per mantenere il rilevamento, il monitoraggio e la correzione centralizzati per migliaia di dipendenti o agenti creati dai dipartimenti.

avere un piano pensionistico

Di recente, un conoscente ha affermato di aver fatto risparmiare a un cliente centinaia di migliaia di dollari identificando e poi terminando un “progetto zombie”: un progetto pilota di intelligenza artificiale trascurato o fallito che è stato lasciato in esecuzione su un’istanza cloud GPU. Ci sono potenzialmente migliaia di agenti che rischiano di diventare una flotta zombie all’interno di un’azienda. Oggi, molti dirigenti incoraggiano i dipendenti a utilizzare l’intelligenza artificiale più di quanto non faccia altrimenti e ai dipendenti viene chiesto di creare i propri flussi di lavoro o assistenti AI incentrati sull’intelligenza artificiale. Con l’utilità di qualcosa come OpenGL e delle istruzioni top-down, è facile prevedere che ci sarà un’esplosione nel numero di agenti “costruiti da soli” che entreranno in ufficio con il loro dipendente umano. Poiché un agente AI è un programma che rientra nella definizione di proprietà intellettuale dell’azienda, tali agenti potrebbero diventare orfani non appena un dipendente cambia reparto o azienda. Sono necessarie politiche e governance attive per smantellare e ritirare tutti gli agenti legati a ID e autorizzazioni specifici dei dipendenti.

L’ottimizzazione finanziaria è la regola fuori dal comune

Mentre per alcuni dirigenti l’intelligenza artificiale autonoma sembra essere un modo per migliorare i propri margini operativi limitando il capitale umano, molti ritengono che il ROI sia l’approccio sbagliato per la sostituzione del lavoro umano. Aggiungere funzionalità di intelligenza artificiale all’azienda non significa necessariamente acquistare un nuovo strumento software con prezzi prevedibili per istanza all’ora o per postazione. 1 dicembre 2025 Sondaggio IDC I dati sponsorizzati da Robot mostrano che il 96% delle organizzazioni che implementano l’IA generica e il 92% delle organizzazioni che implementano l’IA agentica hanno riferito che i costi erano più alti o molto più alti del previsto.

Collegamento alla fonte