Ci siamo adattati al software da decenni. Abbiamo imparato i comandi della shell, memorizzato i nomi dei metodi HTTP e gli SDK collegati. Ogni interfaccia presumeva che avremmo parlato il suo lingua. Negli anni ’80 digitavamo “grep”, “ssh” e “ls” in una shell; Verso la metà degli anni 2000 chiamavamo endpoint REST come GET /users; Negli anni 2010 abbiamo importato gli SDK (client.orders.list()) in modo da non dover pensare all’HTTP. Ma alla base di ciascuno di questi passaggi c’era la stessa premessa: fornire funzionalità in modo strutturato in modo che altri possano trarne vantaggio.
Ma ora lo siamo Stiamo entrando nel prossimo paradigma di interfaccia. I moderni LLM sfidano l’idea che l’utente debba scegliere una funzione o ricordare la firma di un metodo. “Quale API devo chiamare?” La domanda diventa invece: “Quale risultato sto cercando di ottenere?” In altre parole, l’interfaccia si sta spostando dal codice → al linguaggio. In questo cambiamento, il Model Context Protocol (MCP) emerge come un’astrazione che consente ai modelli di interpretare l’intento umano, scoprire capacità ed eseguire flussi di lavoro, esponendo efficacemente le funzioni software come richieste del linguaggio naturale piuttosto che come le conoscono i programmatori.
MCP non è un termine iperbolico; Numerosi studi indipendenti descrivono il cambiamento architetturale necessario per lanciare lo strumento “LLM-consumabile”. Un blog: Ingegneri Akamai Descrive il passaggio dalle API tradizionali alle “integrazioni basate sul linguaggio” per i LLM. un altro articolo accademico L’articolo “Flussi di lavoro mediati dall’intelligenza artificiale e API aziendali” parla di come l’architettura delle API aziendali deve evolversi per supportare agenti orientati agli obiettivi piuttosto che chiamate orientate all’uomo. In breve: non progettiamo più API solo per il codice; Progettiamo capacità mirate.
Perché questo è importante per le imprese? Perché le aziende stanno affogando nei sistemi interni, nell’integrazione diffusa e nei costi di formazione degli utenti. I lavoratori sono in difficoltà non perché non abbiano strumenti, ma perché ne hanno troppi, ognuno con la propria interfaccia. Quando il linguaggio naturale diventa l’interfaccia principale, “quale funzione chiamo?” si presenta un ostacolo. scompare. Un nuovo blog aziendale ha osservato che le interfacce in linguaggio naturale (NLI) consentono l’accesso self-service ai dati per gli operatori di marketing che in precedenza dovevano attendere che gli analisti scrivessero SQL. Quando l’utente dichiara semplicemente il suo intento (ad esempio “Recupera i ricavi dell’ultimo trimestre per la regione X e segnala le anomalie”), il sistema sottostante può trasformarlo in chiamate, orchestrazione, memoria di contesto e fornire i risultati.
Il linguaggio naturale diventa interfaccia, non comodità
Per capire come funziona questa evoluzione, consideriamo la scala dell’interfaccia:
|
Età |
interfaccia |
Per chi è stato costruito? |
|
CLI |
comandi della shell |
Gli utenti esperti scrivono il testo |
|
API |
Endpoint Web o RPC |
Sviluppatori che integrano sistemi |
|
SDK |
Funzioni della libreria |
Programmatori che utilizzano le astrazioni |
|
Linguaggio naturale (MCP) |
Richieste basate sullo scopo |
Gli agenti umani + IA affermano: Che cosa vogliono |
Ad ogni passo, gli esseri umani dovevano “imparare il linguaggio della macchina”. Con MCP la macchina assorbe il linguaggio dell’uomo e fa il resto. Questo non è solo un miglioramento dell’esperienza dell’utente, ma anche un cambiamento dell’architettura.
In MCP esistono ancora le funzioni del codice: accesso ai dati, logica di business e orchestrazione. Tuttavia, vengono scoperti anziché evocati manualmente. Ad esempio, invece di chiamare "billingApi.fetchInvoices(customerId=…)," “Mostra tutte le fatture di Acme Corp da gennaio ed evidenzia i pagamenti scaduti”, dici. Il modello risolve le entità, chiama i sistemi giusti, filtra e restituisce informazioni strutturate. Il lavoro dello sviluppatore si sposta dal cablaggio degli endpoint alla definizione delle superfici e dei guardrail.
Questo cambiamento sta trasformando l’esperienza degli sviluppatori e l’integrazione aziendale. I team spesso hanno difficoltà a utilizzare nuovi strumenti perché richiedono la mappatura di schemi, la scrittura di codice assembly e la formazione degli utenti. La partecipazione sul fronte del linguaggio naturale implica la definizione dei nomi delle entità aziendali, la dichiarazione delle capacità e la loro disponibilità attraverso il protocollo. L’essere umano (o l’agente AI) non ha più bisogno di conoscere i nomi dei parametri o l’ordine delle chiamate. La ricerca mostra che l’utilizzo degli LLM come interfacce per le API può ridurre il tempo e le risorse necessarie per sviluppare chatbot o flussi di lavoro richiamati da strumenti.
Il cambiamento comporta anche vantaggi in termini di produttività. Le organizzazioni che adottano interfacce basate su LLM possono convertire la latenza di accesso ai dati (ore/giorno) in latenza vocale (secondi). Ad esempio, se in precedenza un analista aveva bisogno di esportare CSV, eseguire conversioni e distribuire diapositive, un’interfaccia linguistica consente di “riepilogare i cinque principali fattori di rischio per la perdita dell’ultimo trimestre” e creare narrativa e immagini tutto in una volta. L’essere umano quindi rivede, adatta e agisce, passando da idraulico dei dati a decisore. Questo è importante: secondo un sondaggio condotto da McKinsey & CompanyIl 63% delle organizzazioni che utilizzano l’intelligenza artificiale creano già output di testo e più di un terzo produce immagini o codice. (Anche se molti sono ancora agli inizi nel tentativo di acquisire un ROI a livello aziendale, il segnale è chiaro: il linguaggio come interfaccia sblocca nuovo valore.
Da un punto di vista architetturale, ciò significa che la progettazione del software deve evolversi. Sistemi che emettono richiesta MCP metadati dei talentiSupporto orientamento semantico, per continuare memoria del contesto e applicare ringhiere. La progettazione di un’API non dovrebbe più essere una questione di “Quale funzione cercherà l’utente?” non ha bisogno di porre la domanda, ma piuttosto “Quale intento può esprimere l’utente?” Un quadro pubblicato di recente Questo documento sullo sviluppo di API aziendali per LLM mostra come le API possono essere arricchite con metadati adatti al linguaggio naturale in modo che gli agenti possano selezionare dinamicamente gli strumenti. Ciò significa: il software diventa modulare attorno alle superfici degli obiettivi anziché alle superfici funzionali.
I sistemi basati sul linguaggio introducono anche rischi e requisiti. Il linguaggio naturale è intrinsecamente ambiguo, quindi le aziende devono implementare l’autenticazione, la registrazione, la provenienza e il controllo degli accessi proprio come fanno con le API. Senza questi guardrail, un agente potrebbe chiamare il sistema sbagliato, esporre dati o interpretare erroneamente le intenzioni. “Un articolo sucollasso rapido” spiega il pericolo: man mano che le interfacce utente in linguaggio naturale diventano dominanti, il software potrebbe trasformarsi in “una capacità di conversazione” e l’azienda in “un’API con un front-end in linguaggio naturale”. Questa trasformazione è potente, ma sicura solo se i sistemi sono progettati per l’introspezione, il controllo e la gestione.
Il cambiamento ha anche conseguenze culturali e organizzative. Per decenni, le aziende hanno assunto ingegneri dell’integrazione per progettare API e middleware. Le aziende assumeranno sempre più modelli basati su MCP ingegneri dell’ontologia, architetti di talento E esperti di abilitazione degli agenti. Questi ruoli si concentrano sulla definizione della semantica delle operazioni aziendali, sulla corrispondenza delle risorse aziendali con le capacità del sistema e sul miglioramento della memoria del contesto. Poiché l’interfaccia è ora incentrata sull’uomo, competenze come la conoscenza del dominio, l’inquadramento rapido, la supervisione e la valutazione diventano centrali.
Cosa dovrebbero fare oggi i leader aziendali? Prima di tutto, pensa al linguaggio naturale come al livello dell’interfaccia, non a un componente aggiuntivo di fantasia. Mappa i flussi di lavoro aziendali che possono essere richiamati in sicurezza attraverso il linguaggio. Quindi cataloga le funzionalità principali di cui già disponi: servizi dati, analisi e API. Quindi chiedi: “Questi possono essere scoperti? Possono essere evocati attraverso l’intento?” Infine, pilota un livello in stile MCP: crea una piccola area in cui un utente o un agente può esprimere i risultati nella lingua (priorizzazione dell’assistenza clienti) e lasciare che siano i sistemi a eseguire l’orchestrazione. Quindi itera e ridimensiona.
Il linguaggio naturale non è solo il nuovo front-end. Diventa il livello di interfaccia predefinito per il software, sostituendo la CLI, quindi le API e infine gli SDK. MCP è l’astrazione che lo rende possibile. I vantaggi includono un’integrazione più rapida, sistemi modulari, maggiore produttività e nuovi ruoli. Per le organizzazioni che fanno ancora affidamento sulla chiamata manuale degli endpoint, questo cambiamento sembrerà come reimparare una nuova piattaforma. Ora la domanda è “quale funzione chiamo?” non. non “cosa voglio fare?”
Dhyey Mavani sta accelerando l’intelligenza artificiale generale e la matematica computazionale.















