Scorso rapporti I tassi di fallimento nei progetti di intelligenza artificiale hanno sollevato domande preoccupanti per le organizzazioni fortemente investite nell’intelligenza artificiale. Gran parte della discussione si è concentrata su fattori tecnici come l’accuratezza del modello e la qualità dei dati, ma dopo aver visto il lancio di dozzine di startup basate sull’intelligenza artificiale, mi sono reso conto che le maggiori opportunità di miglioramento sono spesso culturali, non tecniche.

I progetti interni in difficoltà tendono a condividere problemi comuni. Ad esempio, i team di ingegneri creano modelli che i product manager non sanno come utilizzare. I data scientist creano prototipi che i team operativi faticano a mantenere. Anche le applicazioni di intelligenza artificiale rimangono inutilizzate perché le persone per le quali vengono create non sono coinvolte nella decisione su cosa significhi realmente “utile”.

Al contrario, le organizzazioni che stanno ottenendo un valore significativo con l’intelligenza artificiale hanno capito come creare il giusto tipo di collaborazione tra i dipartimenti e creare una responsabilità condivisa per i risultati. La tecnologia è importante, ma la preparazione organizzativa è altrettanto importante.

Espandi l’alfabetizzazione sull’intelligenza artificiale oltre l’ingegneria

La collaborazione si interrompe quando solo gli ingegneri capiscono come funziona un sistema di intelligenza artificiale e cosa può fare. I product manager non possono valutare i compromessi che non comprendono. I progettisti non possono creare interfacce per funzionalità che non possono esprimere chiaramente. Gli analisti non possono verificare gli output che non possono interpretare.

La soluzione non è rendere tutti scienziati dei dati. Ciò aiuta ciascun ruolo a comprendere come l’intelligenza artificiale si applica alla propria attività specifica. I product manager devono capire quali tipi di contenuti, previsioni o raccomandazioni sono realistici dati i dati disponibili. I progettisti devono capire cosa può effettivamente fare l’intelligenza artificiale in modo da poter progettare funzionalità che gli utenti troveranno utili. Gli analisti devono sapere quali output dell’intelligenza artificiale richiedono la verifica umana e di quali ci si può fidare.

Quando i team condividono questo vocabolario lavorativo, l’intelligenza artificiale cessa di essere qualcosa che accade nel dipartimento di ingegneria e diventa uno strumento che l’intera organizzazione può utilizzare in modo efficace.

Stabilire regole chiare per l’autonomia dell’IA

La seconda sfida riguarda sapere dove l’intelligenza artificiale può agire da sola e dove è richiesta l’approvazione umana. Molte organizzazioni arrivano agli estremi, bloccando ogni decisione relativa all’intelligenza artificiale attraverso la revisione umana o consentendo ai sistemi di intelligenza artificiale di operare senza barriere.

Ciò che serve è un quadro chiaro che definisca dove e come l’intelligenza artificiale può agire in modo autonomo. Ciò significa stabilire le regole in anticipo: l’intelligenza artificiale può approvare le modifiche di configurazione di routine? Può consigliare aggiornamenti dello schema ma non implementarli? Può distribuire il codice negli ambienti di staging ma non in produzione?

Queste regole dovrebbero includere tre elementi: verificabilità (Puoi seguire come l’intelligenza artificiale è arrivata a questa decisione?), ripetibilità (puoi ricreare il percorso decisionale?) e osservabilità (I team possono monitorare il comportamento dell’IA mentre accade?). Senza questo quadro, o rallenti al punto in cui l’intelligenza artificiale non fornisce alcun vantaggio, oppure crei sistemi che prendono decisioni che nessuno può spiegare o controllare.

Crea playbook interfunzionali

Il terzo passo è codificare il modo in cui i diversi team lavorano effettivamente con i sistemi di intelligenza artificiale. Quando ciascun dipartimento sviluppa il proprio approccio, si ottengono risultati incoerenti e sforzi inutili.

I playbook interfunzionali funzionano meglio quando i team li sviluppano insieme anziché essere imposti dall’alto. Questi playbook rispondono a domande concrete come: come testiamo i suggerimenti dell’intelligenza artificiale prima di metterli in produzione? Qual è la nostra procedura di fallback quando una distribuzione automatizzata fallisce; Viene affidato a operatori umani o viene prima provato un approccio diverso? Chi deve essere coinvolto quando ignoriamo una decisione dell’IA? Come possiamo incorporare il feedback per migliorare il sistema?

L’obiettivo non è aggiungere burocrazia. Consente a tutti di comprendere come l’intelligenza artificiale si inserisce nella propria attività attuale e cosa fare quando i risultati non corrispondono alle aspettative.

Per andare avanti

L’eccellenza tecnica nell’intelligenza artificiale rimane importante, ma le organizzazioni che sovraindicizzano le prestazioni del modello ignorando i fattori organizzativi si stanno preparando a sfide evitabili. Ho visto che le implementazioni di intelligenza artificiale di successo prendono la trasformazione culturale e i flussi di lavoro tanto seriamente quanto l’implementazione tecnica.

La domanda non è se la tua tecnologia AI sia abbastanza avanzata. Dipende se la tua organizzazione è pronta a lavorare con esso.

Adi Polak È il direttore del patrocinio e dell’ingegneria dell’esperienza degli sviluppatori presso Confluent.

Collegamento alla fonte