
Controlla la tua ricerca, MIT: 95% progetti di intelligenza artificiale Non sono fallimenti: sono tutt’altro.
Secondo nuovi dati G2Quasi il 60% delle aziende dispone già di agenti IA in produzione e meno del 2% fallisce effettivamente dopo l’implementazione. Ciò dipinge un quadro molto diverso dalle recenti previsioni accademiche, che suggeriscono una diffusa stagnazione nei progetti di intelligenza artificiale.
Essendo una delle piattaforme di revisione software in crowdsourcing più grandi al mondo, il set di dati di G2 riflette le tendenze di adozione nel mondo reale; Ciò dimostra che gli agenti IA sono molto più durevoli e “appiccicosi” dei primi piloti IA produttivi.
“Il nostro rapporto sottolinea che gli agenti sono davvero una bestia diversa quando si tratta di intelligenza artificiale, in termini di fallimento o successo”, ha detto a VentureBeat Tim Sanders, capo della ricerca presso G2.
Transizione all’intelligenza artificiale nel servizio clienti, business intelligence e sviluppo software
Oggi si fa spesso riferimento a Sanders Studio del MITSanders sostiene che questo rapporto, pubblicato a luglio, prendeva in considerazione solo progetti generali specifici dell’intelligenza artificiale, e molti media hanno generalizzato questo per significare che l’intelligenza artificiale fallirà il 95% delle volte. Sottolinea che i ricercatori universitari hanno analizzato gli annunci pubblici piuttosto che i dati a circuito chiuso. Se le aziende non comunicavano l’impatto sui profitti/perdite, i loro progetti venivano considerati falliti; anche se in realtà non è così.
G2 Rapporto sull’analisi degli agenti AI 2025Al contrario, ha intervistato più di 1.300 decisori B2B e ha scoperto:
-
Il 57% delle aziende ha rappresentanti nella produzione e il 70% afferma che i rappresentanti sono il “fulcro delle operazioni”;
-
L’83% è soddisfatto della performance dell’agente;
-
Le aziende ora investono in media oltre 1 milione di dollari all’anno; 1 persona su 4 spende più di 5 milioni di dollari;
-
9 su 10 prevedono di aumentare questo investimento nei prossimi 12 mesi;
-
Le organizzazioni hanno riscontrato un risparmio sui costi del 40%, un flusso di lavoro più veloce del 23% e 1 su 3 ha riportato un aumento della velocità superiore al 50%, soprattutto nel marketing e nelle vendite;
-
Quasi il 90% degli intervistati ha riferito una maggiore soddisfazione dei dipendenti nei dipartimenti in cui sono assegnati rappresentanti.
Principali casi d’uso per gli agenti IA? Servizio clienti, business intelligence (BI) e sviluppo software.
È interessante notare che G2 ha trovato un “numero sconcertante” (circa 1 su 3) di organizzazioni che secondo Sanders “si lasciano strappare”.
“Fondamentalmente lasciavano che l’agente svolgesse un compito e poi lo annullavano immediatamente se si trattava di un’azione sbagliata, oppure facevano il QA in modo da poter annullare le azioni sbagliate molto, molto rapidamente”, ha spiegato.
Ma allo stesso tempo, i programmi per agenti che includevano un essere umano nel ciclo avevano il doppio delle probabilità di garantire risparmi sui costi (75% o più) rispetto alle strategie con agenti completamente autonomi.
Ciò riflette quello che Sanders chiama il “calore parigino” tra le organizzazioni “let it rip” e le organizzazioni “lascia alcune porte umane aperte”. “Anni dopo, ci sarà una persona nel giro”, ha detto. “Più della metà dei nostri sondaggisti ci ha detto che c’era più supervisione umana di quanto ci aspettassimo”.
Ma quasi la metà degli acquirenti IT è d’accordo con il fatto che agli agenti venga data piena autonomia sui flussi di lavoro a basso rischio come la cura dei dati o la gestione della pipeline di dati. Nel frattempo, dice Sanders, pensate al senso degli affari e alla ricerca come un lavoro di preparazione; gli agenti raccolgono informazioni dietro le quinte per preparare le persone a effettuare le transizioni finali e le decisioni finali.
Sanders ha osservato che un classico esempio di ciò è il prestito ipotecario: gli agenti fanno tutto il necessario finché la persona non analizza i loro risultati e dice sì o no al prestito.
Se ci sono errori, sono in background. “Semplicemente non lo pubblica per te e non ci mette sopra il tuo nome”, ha detto Sanders. “Di conseguenza, ti fidi di più. Lo usi di più.”
Quando si tratta di metodi di distribuzione specifici, Salesforce potere dell’agente Sta “vincendo” sulle agenzie standardizzate e sulle strutture interne, conquistando il 38% della quota di mercato complessiva, ha riferito Sanders. Ma molte organizzazioni sembrano optare per un approccio ibrido con l’obiettivo di dotare eventualmente di strumenti locali.
Poi, ha previsto, “si cristallizzeranno attorno ad aziende che dispongono di un vero sistema di registrazione, come Microsoft, ServiceNow, Salesforce”, perché vogliono una fonte affidabile di dati.
Gli agenti IA non sono vincolati da scadenze
Perché gli agenti (almeno in alcuni casi) sono molto migliori degli umani? Sanders ha sottolineato questo concetto: Legge di ParkinsonSi afferma che “il lavoro si espande per riempire il tempo disponibile per il completamento”.
“La produttività individuale non porta alla produttività organizzativa perché le persone agiscono solo rispettando le scadenze”, ha affermato Sanders. Quando le organizzazioni esaminano i loro progetti complessivi di intelligenza artificiale, non hanno spostato gli obiettivi; le scadenze non sono cambiate.
“L’unico modo per risolvere questo problema è spostarsi in avanti o trattare con i non umani, perché i non umani non sono soggetti alla legge di Parkinson”, ha detto, sottolineando che non soffrono della “sindrome umana della procrastinazione”.
Gli agenti non fanno pause. Non sono distratti. “Stanno semplicemente fissando le scadenze in modo che tu non debba cambiarle”, ha detto Sanders.
“Se ti concentri su cicli di QA sempre più veloci che possono essere automatizzati, aggiusterai i tuoi rappresentanti più velocemente di quanto aggiusterai il tuo personale.”
Inizia con i problemi aziendali, comprendi che la fiducia è un processo lento
Tuttavia, Sanders ritiene che l’intelligenza artificiale stia seguendo il cloud quando si tratta di fiducia: ricorda il 2007, quando tutti implementavano rapidamente gli strumenti cloud; poi nel 2009 o nel 2010 “c’era una sorta di buco di fiducia”.
A questo si aggiungono le preoccupazioni per la sicurezza: il 39% degli intervistati del sondaggio di G2 ha affermato di aver avuto un’esperienza. incidente di sicurezza Dall’implementazione dell’intelligenza artificiale; Il 25% dei casi era grave. Sanders ha sottolineato che le aziende dovrebbero prendere in considerazione la possibilità di misurare in millisecondi la velocità con cui un agente può essere riqualificato in modo da non ripetere mai più un’azione sbagliata.
Includere sempre le operazioni IT nelle implementazioni dell’intelligenza artificiale, ha consigliato. Sanno cosa va storto con l’intelligenza artificiale e l’automazione dei processi robotici (RPA) e possono arrivare fino in fondo alla spiegabilità, il che fornisce molta più fiducia.
Ma d’altra parte: non fidarti ciecamente dei venditori. In effetti, solo la metà dei partecipanti ha affermato di sì; Sanders ha osservato che il segnale di fiducia n. 1 è la spiegabilità rappresentativa. “Ci è stato detto più e più volte nelle interviste qualitative che se tu (un venditore) non puoi spiegarlo, non puoi distribuirlo e gestirlo.”
Ha inoltre suggerito che è fondamentale iniziare con il problema aziendale e lavorare a ritroso: non acquistare agenzie per poi cercare la prova del concetto. Se i leader applicano gli agenti ai maggiori punti critici, gli utenti interni saranno più indulgenti e più disposti a ripetere quando si verificano gli eventi, affinando così le proprie capacità.
“Le persone ancora non si fidano del cloud, sicuramente non si fidano dell’intelligenza artificiale generale, potrebbero non fidarsi degli intermediari finché non lo sperimentano, e poi il gioco cambia”, ha detto Sanders. “La fiducia arriva con il mulo; non puoi essere perdonato.”














