Le grandi aziende tecnologiche hanno passato l’ultimo anno a dire che stiamo vivendo nell’era degli agenti IA, ma gran parte di ciò che ci è stato promesso è ancora teorico. Mentre le aziende si affrettano a trasformare l’immaginazione in realtà, hanno creato una raccolta di strumenti per guidare lo sviluppo dell’intelligenza artificiale generativa. Un gruppo di attori chiave nella corsa all’intelligenza artificiale, tra cui Anthropologie, Block e OpenAI, si sono riuniti per promuovere l’interoperabilità. La neonata Agentic AI Foundation (AAIF). Questa mossa eleva una manciata di tecnologie popolari e potrebbe renderle un vero standard per lo sviluppo dell’intelligenza artificiale in futuro.

Il percorso verso lo sviluppo di modelli di intelligenza artificiale ad agenti è a dir poco torbido, ma le aziende hanno investito così tanto nella costruzione di questi sistemi che alcuni strumenti hanno appena scalfito la superficie. AAIF, che fa parte della Linux Foundation senza fini di lucro, è stata lanciata per gestire lo sviluppo di tre tecnologie chiave di intelligenza artificiale: Model Context Protocol (MCP), Goose e AGENTS.md.

MCP è forse il più conosciuto dei tre, essendo stato reso open source da Anthropic un anno fa. MCP mira a collegare gli agenti AI alle origini dati in modo standardizzato: Anthropic (e ora AAIF) ama chiamare MCP la “porta USB-C per l’intelligenza artificiale”. Invece di creare integrazioni personalizzate per ogni diverso database o piattaforma di archiviazione cloud, MCP consente agli sviluppatori di connettersi rapidamente e facilmente a qualsiasi server compatibile con MCP.

Sin dal suo rilascio, MCP è stato ampiamente utilizzato nel settore dell’intelligenza artificiale. Google ha annunciato all’I/O 2025 che aggiungerà il supporto per MCP ai suoi strumenti di sviluppo e molti dei suoi prodotti hanno aggiunto server MCP per rendere i dati più accessibili agli agenti. OpenAI ha adottato MCP solo pochi mesi dopo il suo rilascio.

L’espansione dell’uso degli MCP può aiutare gli utenti a personalizzare la propria esperienza di intelligenza artificiale. Ad esempio, il nuovo anello Pebble Index 01 utilizza un LLM nativo che può funzionare sulle note vocali e supporta MCP per la personalizzazione dell’utente.

I modelli di intelligenza artificiale locale devono fare alcuni sacrifici rispetto ai grandi modelli basati su cloud, ma MCP può colmare il divario prestazionale. “Molte attività legate alla produttività e ai contenuti sono interamente possibili all’edge”, ha detto ad Ars Vinesh Sukumar, responsabile dei prodotti AI di Qualcomm. “Con MCP, hai una stretta di mano con più fornitori di servizi cloud per svolgere qualsiasi tipo di attività complessa.”

Collegamento alla fonte