João Freitas è direttore generale e vicepresidente di Ingegneria per l’intelligenza artificiale e l’automazione. Chiama Quest

Poiché l’uso dell’intelligenza artificiale continua ad evolversi nelle grandi organizzazioni, i leader sono sempre più alla ricerca del prossimo progresso che possa garantire un maggiore ritorno sull’investimento. L’ultima ondata di questa tendenza in corso è l’adozione di agenti di intelligenza artificiale. Ma come con qualsiasi nuova tecnologia, le organizzazioni devono assicurarsi di adottare agenti IA in modo responsabile per facilitare sia la velocità che la sicurezza.

Più della metà delle organizzazioni ha già implementato in una certa misura agenti IA e altre prevedono di seguire l’esempio nei prossimi due anni. Ma molti dei primi utilizzatori stanno ora ripensando il loro approccio. Quattro leader tecnologici su dieci si rammaricano di non aver stabilito fin dall’inizio una base di governance più solida; Ciò dimostra che stanno adottando rapidamente l’IA, ma con il margine per migliorare le politiche, le regole e le migliori pratiche progettate per garantire lo sviluppo e l’uso responsabile, etico e legale dell’IA.

Con l’accelerazione dell’adozione dell’IA, le organizzazioni devono trovare il giusto equilibrio tra i rischi di esposizione e l’implementazione di barriere per garantire che l’uso dell’IA sia sicuro.

Dove gli agenti IA creano potenziali rischi?

Ci sono tre aree chiave da considerare per un’adozione più sicura dell’IA.

Il primo di questi è l’intelligenza artificiale ombra, in cui i dipendenti utilizzano strumenti di intelligenza artificiale non autorizzati senza autorizzazione esplicita, aggirando strumenti e processi approvati. L’IT deve creare processi di sperimentazione e innovazione per introdurre modalità più efficienti di lavorare con l’intelligenza artificiale. Anche se l’intelligenza artificiale ombra esiste da quando esistono gli stessi strumenti di intelligenza artificiale, l’autonomia degli strumenti di intelligenza artificiale rende più facile per gli strumenti non approvati operare al di fuori dell’ambito IT, il che può introdurre nuovi rischi per la sicurezza.

In secondo luogo, le organizzazioni devono colmare il divario tra proprietà e responsabilità dell’IA per prepararsi a eventi o processi che vanno storti. Il potere degli agenti IA risiede nella loro autonomia. Tuttavia, se i rappresentanti agiscono in modi inaspettati, i team devono essere in grado di determinare chi è responsabile della gestione di eventuali problemi.

Il terzo rischio sorge quando non vi è alcuna spiegabilità delle azioni intraprese dagli agenti IA. Gli agenti IA sono orientati agli obiettivi, ma potrebbe non essere chiaro come raggiungano i loro obiettivi. Gli agenti di intelligenza artificiale devono avere una logica spiegabile alla base delle loro azioni in modo che gli ingegneri possano monitorare e, se necessario, annullare azioni che potrebbero causare problemi nei sistemi esistenti.

Sebbene nessuno di questi rischi ritarderà l’adozione, aiuteranno le organizzazioni a garantire meglio la propria sicurezza.

Tre linee guida per l’adozione responsabile degli agenti IA

Una volta che le organizzazioni identificano i rischi che gli agenti di intelligenza artificiale possono comportare, devono implementare linee guida e barriere per garantire un utilizzo sicuro. Le organizzazioni possono ridurre al minimo questi rischi seguendo questi tre passaggi.

1: Rendi la supervisione umana l’impostazione predefinita

L’agenzia di intelligenza artificiale continua a svilupparsi rapidamente. Ma abbiamo ancora bisogno della supervisione umana quando agli agenti di intelligenza artificiale viene data la capacità di agire, prendere decisioni e tracciare un obiettivo che può avere un impatto sui sistemi chiave. Un essere umano dovrebbe essere coinvolto per impostazione predefinita, soprattutto per i casi d’uso e i sistemi business-critical. I team che utilizzano l’intelligenza artificiale devono comprendere le azioni che l’intelligenza artificiale può intraprendere e dove potrebbe essere necessario intervenire. Inizia con cautela e aumenta nel tempo il livello di autorità conferito agli agenti IA.

I team operativi, gli ingegneri e i professionisti della sicurezza devono comprendere insieme il ruolo svolto dagli agenti IA nella supervisione dei flussi di lavoro. A ciascun agente dovrebbe essere assegnato un proprietario umano specifico per una supervisione e una responsabilità chiaramente definite. Le organizzazioni dovrebbero inoltre consentire a qualsiasi essere umano di segnalare o ignorare il comportamento di un agente di intelligenza artificiale quando un’azione ha conseguenze negative.

Nel valutare i compiti degli agenti IA, le organizzazioni devono comprendere che mentre l’automazione tradizionale è efficace nella gestione di processi ripetitivi e basati su regole con input di dati strutturati, gli agenti IA possono eseguire compiti molto più complessi e adattarsi alle nuove informazioni in modo più autonomo. Ciò li rende una soluzione interessante per tutti i tipi di attività. Tuttavia, una volta implementati gli agenti IA, le organizzazioni dovrebbero controllare quali azioni possono eseguire, soprattutto nelle prime fasi del progetto. Pertanto, i team che lavorano con agenti IA devono disporre di percorsi di approvazione per azioni ad alto impatto per garantire che l’ambito dell’agente non si estenda oltre i casi d’uso previsti e ridurre al minimo il rischio di sistema più ampio.

2: Cucinare in sicurezza

L’introduzione di nuovi strumenti non dovrebbe esporre il sistema a nuovi rischi per la sicurezza.

Le organizzazioni dovrebbero prendere in considerazione piattaforme intermediarie conformi a elevati standard di sicurezza e convalidate con certificazioni di livello aziendale come SOC2, FedRAMP o equivalenti. Inoltre, agli agenti IA non dovrebbe essere consentito di gestire liberamente i sistemi di un’organizzazione. Come minimo, le autorizzazioni e l’ambito di sicurezza di un agente AI dovrebbero essere compatibili con l’ambito del proprietario e qualsiasi strumento aggiunto all’agente non dovrebbe consentire autorizzazioni estese. Limitare l’accesso di un agente AI a un sistema in base al suo ruolo garantirà inoltre che l’implementazione funzioni senza intoppi. Tenere un registro completo di ogni azione intrapresa da un agente AI può anche aiutare gli ingegneri a capire cosa è successo in caso di incidente e a rintracciare il problema.

3: Rendere i risultati spiegabili

L’uso dell’intelligenza artificiale in un’organizzazione non dovrebbe mai essere una scatola nera. La logica alla base di qualsiasi azione deve essere spiegata in modo che qualsiasi ingegnere che tenti di accedervi possa comprendere il contesto utilizzato dall’agente per prendere decisioni e accedere alle tracce che hanno portato a tali azioni.

IOGli input e gli output di ciascuna azione dovrebbero essere registrati e accessibili. Ciò aiuterà le organizzazioni a stabilire una solida panoramica della logica alla base delle azioni di un agente AI, fornendo un valore significativo nel caso qualcosa vada storto.

La sicurezza sottolinea il successo degli agenti IA

Gli agenti AI rappresentano un’enorme opportunità per le organizzazioni di accelerare e migliorare i processi esistenti. Ma se non danno priorità alla sicurezza e ad una governance forte, possono esporsi a nuovi rischi.

Man mano che gli agenti IA diventano sempre più diffusi, le organizzazioni devono assicurarsi di disporre di sistemi per misurare le loro prestazioni e la loro capacità di agire quando creano problemi.

Per saperne di più scrittori ospiti. Oppure considera di inviare il tuo! Dai un’occhiata al nostro istruzioni qui.

Collegamento alla fonte