La sfida odierna dell’intelligenza artificiale riguarda il coordinamento, il contesto e la collaborazione degli agenti. Come convincerli a pensare veramente insieme, con la comprensione contestuale, la negoziazione e lo scopo condiviso che ciò comporta? Questo è un passo fondamentale verso un nuovo tipo di intelligenza distribuita che manterrà gli esseri umani saldamente coinvolti.
Nell’ultima tappa della serie AI Impact di VentureBeat, Vijoy Pandey, vicepresidente senior e direttore generale di Cisco Outshift, e Noah Goodman, professore di Stanford e co-fondatore di Humans&, si sono seduti per parlare di come andare oltre la semplice connessione di agenti con intelligenza collettiva.
Serve saggezza collettiva, non azioni coordinate
Secondo Pandey la vera sfida è questa: "Al giorno d’oggi, gli agenti possono connettersi tra loro, ma non possono effettivamente pensare insieme."
Mentre protocolli come MCP e A2A risolvevano la connettività di base e AGNTCY risolvevano i problemi di scoperta, gestione dell’identità, comunicazione tra agenti e osservabilità, affrontavano solo l’equivalente di fare una telefonata tra due persone che non parlano la stessa lingua. Ma il team di Pandey ha individuato qualcosa di più profondo delle installazioni tecniche: la necessità che gli agenti ottengano intelligenza collettiva, non solo azioni coordinate.
In che modo l’intenzione condivisa e la conoscenza condivisa consentono l’innovazione collettiva?
Per capire dove dovrebbe andare l’IA multi-agente, entrambi i relatori hanno fatto riferimento alla storia dell’intelligenza umana. Mentre gli esseri umani sono diventati individualmente intelligenti circa 300.000 anni fa, la vera intelligenza collettiva è emersa solo circa 70.000 anni fa, con l’emergere del linguaggio complesso.
Questa svolta ha consentito tre capacità fondamentali: scopo condiviso, conoscenza condivisa e innovazione collettiva.
"Quando si ha uno scopo comune, un obiettivo comune, si dispone di un insieme di conoscenze che è possibile modificare, migliorare, sviluppare e quindi procedere verso l’innovazione collettiva." Pandey ha detto.
Goodman, il cui lavoro unisce informatica e psicologia, ha spiegato che il linguaggio è molto più che una semplice codifica e decodificazione delle informazioni.
"Il linguaggio è questo tipo di codifica, che richiede la comprensione del contesto, le intenzioni di chi parla, il mondo, come influisce su ciò che le persone dicono, per capire cosa le persone intendono." ha detto.
Questa comprensione sofisticata è ciò che è alla base della cooperazione umana e dell’evoluzione culturale cumulativa, ed è ciò che attualmente manca nell’interazione da agente ad agente.
Affrontare le lacune dell’Internet della Cognizione
"“Dobbiamo imitare l’evoluzione umana”, ha spiegato Pandey. “Non solo gli agenti diventano sempre più intelligenti, proprio come i singoli esseri umani, ma dobbiamo costruire un’infrastruttura che consenta l’innovazione collettiva, il che significa condividere intenti e coordinamento e quindi condividere conoscenza o contesto e costruire su quel contesto”.
Pandey lo chiama Internet of Cognition: un’architettura a tre livelli progettata per consentire il pensiero collettivo tra agenti eterogenei:
Livello protocollo: Oltre alla connettività di base, questi protocolli consentono la comprensione, la condivisione degli scopi, il coordinamento, la negoziazione e la scoperta tra agenti di diversi fornitori e organizzazioni.
Strato di tessuto: Un sistema di memoria condivisa che consente agli agenti di creare ed evolvere un contesto collettivo, con proprietà che emergono dalle loro interazioni.
Livello del motore cognitivo: Acceleratori e guardrail che aiutano gli agenti a pensare più velocemente lavorando entro i necessari vincoli di conformità, sicurezza e costi.
La sfida è che le organizzazioni devono costruire un’intelligenza collettiva oltre i confini organizzativi.
"Considerare la memoria condivisa in modo eterogeneo," Pandey ha detto. "I nostri rappresentanti di diversi partiti si stanno unendo. Allora come si sviluppa questa memoria e si hanno proprietà emergenti?"
Nuovi protocolli di addestramento di base per migliorare la connettività degli agenti
Invece di fare affidamento esclusivamente su protocolli aggiuntivi presso Humans, il team di Goodman sta cambiando radicalmente il modo in cui i modelli sottostanti vengono addestrati non solo tra un essere umano e un agente, ma anche tra un essere umano e più agenti, e soprattutto tra un agente e più umani.
"Modificando la formazione che forniamo ai modelli di base e concentrando la formazione su interazioni con un orizzonte estremamente lungo, capiranno come devono procedere le interazioni per ottenere risultati accurati a lungo termine." ha detto.
E questo, aggiunge, è un deliberato allontanamento dal lungo percorso di autonomia seguito da molti grandi laboratori.
"Il nostro obiettivo non è un’autonomia sempre più lunga. Una cooperazione sempre migliore," ha detto. "Humans& crea rappresentanti con una profonda comprensione sociale: organizzazioni che sanno chissà cosa, possono favorire la collaborazione e connettersi con gli esperti giusti al momento giusto."
Creare barriere che supportino la cognizione
I guardrail rimangono una sfida centrale nell’implementazione di agenti multifunzionali che toccano ogni parte del sistema di un’organizzazione. La questione è come imporre limiti senza soffocare l’innovazione. Le organizzazioni hanno bisogno di barriere rigide, simili a regole, ma le persone in realtà non lavorano in questo modo. Invece, le persone operano in base al principio del danno minimo, ovvero pensando in anticipo alle conseguenze ed esprimendo giudizi contestuali.
"Una volta che i modelli diventeranno sufficientemente intelligenti per questo, come possiamo fornire dei guardrail in modo da supportare una cognizione basata su regole ma anche orientata ai risultati?" chiese Goodman.
Pandey ha esteso questa idea alla realtà dei team di innovazione che devono applicare le regole con giudizio, non solo seguirle meccanicamente. Capire cosa è suscettibile di interpretazione è “un compito estremamente collaborativo”, ha affermato. “E non lo risolvi attraverso una serie di predicati. Non lo risolvi attraverso un documento. Lo risolvi attraverso la comprensione reciproca, il radicamento, la scoperta e la negoziazione.”"
Intelligenza distribuita: il percorso verso la superintelligenza
La vera superintelligenza verrà da sistemi distribuiti, non da modelli individuali sempre più potenti.
"Man mano che sviluppiamo modelli sempre migliori e agenti sempre migliori, riteniamo che alla fine la vera superintelligenza avverrà attraverso sistemi distribuiti." Pandey ha detto
L’intelligenza si espanderà lungo due assi, sia verticalmente o meglio attraverso singoli agenti, sia orizzontalmente o più reti collaborative, proprio come il tradizionale calcolo distribuito.
Tuttavia, Goodman ha detto: "Non possiamo andare verso un futuro in cui le IA restano fuori dal giro e lavorano da sole. Dobbiamo andare verso un futuro in cui esista un ecosistema integrato, un ecosistema distribuito che combini perfettamente esseri umani e intelligenza artificiale."















