Il mercato dell’intelligenza artificiale aziendale sta attualmente affrontando una grave sbornia. Negli ultimi due anni, i decisori sono stati inondati di dimostrazioni di agenti autonomi che prenotano voli, scrivono codici e analizzano dati. Tuttavia, la realtà sul campo è completamente diversa. Sebbene la sperimentazione sia ai massimi storici, l’implementazione di agenti affidabili e autonomi nella produzione rimane una sfida.
Un recente studio del Project NANDA del MIT ha evidenziato una statistica sorprendente: circa il 95% dei progetti di intelligenza artificiale non riescono a fornire valore economico. Quando passano dalla sandbox al mondo reale, si scontrano con i muri e spesso crollano sotto il peso di casi limite, allucinazioni o fallimenti di integrazione.
Secondo Antonio Gulli, ingegnere senior di Google e direttore del CTO Engineering Office, il settore soffre di un fondamentale malinteso su cosa siano realmente gli intermediari. Li abbiamo trattati come scatole magiche piuttosto che come sistemi software complessi. "L’ingegneria dell’intelligenza artificiale non è essenzialmente diversa da qualsiasi tipo di ingegneria, come quella del software o dell’ingegneria civile, soprattutto con modelli e agenti di grandi dimensioni." Ha detto Gulli in un’intervista esclusiva con VentureBeat. "Per costruire qualcosa che duri, non puoi semplicemente seguire il modello o la struttura più recente."
Gulli, la soluzione al problema "pozzo di delusione" Non è un modello più intelligente, è un’architettura migliore. Il suo ultimo libro "Modelli di progettazione dell’agenzia," Fornisce standard architettonici ripetibili e rigorosi. "giocattolo" trasforma le agenzie in affidabili strumenti aziendali. Il libro rende omaggio all’originale "Modelli di progettazione" (uno dei miei libri preferiti sull’ingegneria del software) ha portato ordine nella programmazione orientata agli oggetti negli anni ’90.
Gulli introduce 21 modelli base che fungono da elementi costitutivi per sistemi ad agenti affidabili. Si tratta di costrutti ingegneristici pratici che determinano il modo in cui un agente penserà, ricorderà e si comporterà. "Naturalmente è importante disporre della tecnologia più recente, ma è necessario fare un passo indietro e pensare ai principi fondamentali che guidano i sistemi di intelligenza artificiale." Ha detto Gulli. "Questi modelli costituiscono la base ingegneristica che migliora la qualità della soluzione."
Kit di sopravvivenza aziendale
Gulli ne identifica cinque per i leader aziendali che desiderano stabilizzare i propri stack di intelligenza artificiale: "frutti a bassa pendenza" modelli che offrono il massimo impatto immediato: riflessione, direzione, comunicazione, guardrail e memoria. Il cambiamento più critico nella progettazione dell’agente è da simple "stimolo-risposta" bot a sistemi che possono Riflesso. Un Master standard cerca di rispondere immediatamente a una domanda, il che spesso porta ad un’allucinazione. Tuttavia, un agente riflessivo imita il ragionamento umano creando un piano, eseguendolo e quindi criticando il proprio risultato prima di presentarlo all’utente. Questo ciclo di feedback interno spesso fa la differenza tra la risposta sbagliata e quella giusta.
Quando un agente può pensare, deve essere efficiente. Qui Orientamento diventa indispensabile per il controllo dei costi. Invece di inviare ogni richiesta a un indirizzo molto grande e costoso "Dio modello," Il livello di routing analizza la complessità della richiesta. I compiti semplici sono relegati a modelli più veloci ed economici, mentre il lavoro di ragionamento complesso è riservato a quelli più potenti. Questa architettura consente alle aziende di crescere senza gonfiare i budget per l’inferenza. “Un modello può fungere da router per altri modelli, o anche per lo stesso modello, con istruzioni e funzioni di sistema diverse”, ha affermato Gulli.
La connessione di questi agenti con il mondo esterno è standardizzata Comunicazione fornendo ai modelli l’accesso a strumenti come ricerca, query ed esecuzione di codice. In passato, collegare un Master a un database significava scrivere codice personalizzato e fragile. Gulli punta al rialzo Protocollo del contesto modello (MCP) In un momento chiave, MCP agisce come una porta USB per l’intelligenza artificiale, fornendo agli agenti un modo standardizzato per connettersi a fonti e strumenti di dati. Questa standardizzazione include: "Da rappresentante a rappresentante" (A2A) la comunicazione consente ad agenti esperti di collaborare su attività complesse senza l’onere dell’integrazione personalizzata.
Tuttavia, anche un agente intelligente ed efficace è inutile se non riesce a conservare le informazioni. Memoria i modelli risolvono il problema "pesce rosso" Problema con gli agenti che dimenticano le istruzioni durante le lunghe conversazioni. Gli sviluppatori possono creare assistenti persistenti e sensibili al contesto configurando il modo in cui un agente archivia e recupera le interazioni e le esperienze passate. “Il modo in cui si forma la memoria è fondamentale per la qualità degli agenti”, ha detto Gulli.
In definitiva, nulla di tutto ciò ha importanza se l’agente ha una responsabilità. ringhiere Fornire le restrizioni necessarie per garantire che un agente operi entro i limiti di sicurezza e conformità. Questo va oltre un semplice prompt di sistema che chiede al modello: "sii gentile"; Include controlli dell’architettura e policy di escalation che impediscono la perdita di dati o azioni non autorizzate. Gulli lo spiega "difficile" confini "estremamente importante" Per motivi di sicurezza, per garantire che un agente che tenta di fornire assistenza non divulghi inavvertitamente dati privati o esegua comandi irreversibili al di fuori dell’ambito di autorizzazione.
Garantire l’affidabilità con la sicurezza del processo
Per molti CIO, la riluttanza a delegare deriva dalla paura. Un agente autonomo in grado di leggere e-mail o modificare file rappresenta un rischio significativo se sfugge al controllo. Gulli affronta questo problema prendendo in prestito un concetto dalla gestione dei database: sicurezza delle transazioni. "Se un agente esegue un’azione, dobbiamo implementare checkpoint e rollback, proprio come facciamo per la sicurezza delle transazioni nei database." Ha detto Gulli.
In questo modello, le azioni di un agente sono temporanee finché non vengono verificate. Se il sistema rileva un’anomalia o un errore, "recupero" Riporta l’agente allo stato sicuro precedente, annullando le sue azioni. Questa rete di sicurezza consente alle organizzazioni di affidare agli agenti l’accesso in scrittura ai sistemi, sapendo che esiste un pulsante Annulla. Anche testare questi sistemi richiede un nuovo approccio. I test unitari tradizionali controllano se una funzione restituisce il valore corretto, ma l’agente potrebbe arrivare alla risposta corretta attraverso un processo errato e pericoloso. Gulli difende la valutazione Traiettorie degli agentiMetriche che valutano il comportamento degli agenti nel tempo.
“(Agent Trajectories) implicano l’analisi dell’intera sequenza di decisioni e strumenti utilizzati per ottenere un risultato, garantendo che l’intero processo, non solo la risposta finale, sia solido”, ha affermato.
Questo di solito è aumentato di: Critica modello in cui un agente esperto separato ha il compito di valutare le prestazioni dell’agente primario. Questo controllo incrociato è essenziale per prevenire la propagazione degli errori e creare essenzialmente un sistema automatizzato di revisione tra pari per le decisioni sull’intelligenza artificiale.
A prova di futuro: dal rapid engineering all’ingegneria del contesto
Guardando al 2026, sembra che l’era dei modelli unici e generici finirà. Gulli prevede uno spostamento verso un ambiente dominato da flotte di agenti specializzati. "Sono fermamente convinto che vedremo gli agenti specializzarsi." ha detto. "Il modello sarà ancora il cervello… ma gli agenti diventeranno veri e propri sistemi multi-agente con compiti specifici (agenti focalizzati sul recupero, rendering, rendering video) comunicanti tra loro."
In questo futuro, l’abilità principale degli sviluppatori non sarà quella di convincere un modello a funzionare con espressioni intelligenti e un’ingegneria veloce. Dovranno invece concentrarsi sull’ingegneria del contesto, la disciplina che si concentra sulla progettazione del flusso di informazioni, sulla gestione dello stato e sul miglioramento del contesto creato dal modello. "vede."
Si tratta di un passaggio dall’inganno linguistico all’ingegneria dei sistemi. Adottando questi modelli e "idraulico" Con l’intelligenza artificiale e non solo con i modelli, le aziende possono finalmente colmare il divario tra pubblicità e risultati. "Non dovremmo usare l’intelligenza artificiale solo per l’intelligenza artificiale," Gülli avverte. "Dobbiamo iniziare con una definizione chiara del problema aziendale e di come sfruttare al meglio la tecnologia per risolverlo."















