Lo standard open source Model Context Protocol (MCP) di Anthropic, rilasciato alla fine del 2024, consente agli utenti di connettere i modelli di intelligenza artificiale e gli agenti su di essi a strumenti esterni in un formato strutturato e affidabile. Questo è il motore dietro Claude Code, il popolare sistema di programmazione degli agenti AI di Anthropic, che consente l’accesso immediato a una moltitudine di funzioni su richiesta, come la navigazione web e la creazione di file.

Ma c’era un problema: Claude Rules spesso "Da leggere" Il manuale dell’utente per ogni strumento disponibile, indipendentemente dal fatto che sia necessario per l’attività immediata, utilizza il contesto disponibile che potrebbe altrimenti essere riempito con ulteriori informazioni dalle richieste dell’utente o dalle risposte dell’agente.

Almeno fino a ieri sera. Il team di Claude Code ha rilasciato un aggiornamento Questo cambia radicalmente l’equazione. Chiamata Ricerca veicolo MCP, questa funzione offre: "caricamento pigro" Per i veicoli IA, consente agli agenti di recuperare dinamicamente le descrizioni dei veicoli solo quando necessario.

Si tratta di un cambiamento che sposta gli agenti IA da un’architettura a forza bruta a qualcosa che assomiglia alla moderna ingegneria del software e, secondo i primi dati, risolve i problemi in modo efficace. "lanugine" un problema che minaccia di travolgere l’ecosistema.

“Tassa iniziale” per le agenzie

Per comprendere l’importanza della ricerca del veicolo, è necessario comprendere gli attriti del sistema precedente. Rilasciato come standard open source da Anthropic nel 2024, il Model Context Protocol (MCP) è progettato per essere uno standard universale per connettere modelli di intelligenza artificiale a origini dati e strumenti in qualsiasi cosa, dai repository GitHub ai file system locali.

Ma man mano che l’ecosistema cresce "imposta iniziale."

Thariq Shihipar, del team tecnico di Anthropic, ha sottolineato la portata del problema. annuncio.

"Abbiamo scoperto che i server MCP possono avere più di 50 veicoli." Shihipar ha scritto. "Gli utenti documentavano installazioni di oltre 7 server che consumavano oltre 67.000 token."

In termini pratici, ciò significava che uno sviluppatore che utilizzava un potente set di strumenti poteva sacrificare il 33% o più del limite attuale della finestra di contesto di 200.000 token prima di digitare anche un singolo carattere di un prompt dei comandi; Lo scrittore della newsletter AI Aakash Gupta lo ha sottolineato in un post su X.

Il modello è efficace "lettura" centinaia di pagine di documentazione tecnica su strumenti che non potrà mai utilizzare durante quella sessione.

L’analisi comunitaria ha fornito esempi ancora più evidenti.

Gupta ha inoltre osservato che un singolo server Docker MCP può consumare 125.000 token solo per identificare 135 broker.

"Il vecchio vincolo imponeva uno scambio brutale," ha scritto. "Limita i tuoi server MCP a 2-3 strumenti di base oppure accetta che metà del budget per i contenuti venga perso prima di iniziare a lavorare."

Come funziona la ricerca del veicolo?

La soluzione Antropik nominata da Shihipar è emersa "una delle nostre funzionalità più richieste GitHub" – È elegante nel suo conservatorismo. Claude Code ora tiene traccia dell’utilizzo del contenuto anziché precaricare ciascuna definizione.

Secondo le note di rilascio, il sistema rileva automaticamente quando le descrizioni degli strumenti consumano più del 10% del contenuto disponibile.

Quando questa soglia viene superata, il sistema cambia strategia. Invece di scaricare documenti grezzi nel prompt, carica un indice di ricerca leggero.

Quando l’utente richiede un’azione specifica, ad esempio: "distribuire questo contenitore"—Claude Code non esegue la scansione di un enorme elenco di 200 comandi precaricati. Invece, interroga la directory, trova la descrizione dello strumento rilevante e inserisce solo quello specifico strumento nel contesto.

"Vehicle Search inverte l’architettura," Gupta analizzato. "Il risparmio sui token è notevole: da ~134.000 a ~5.000 nei test interni di Anthropic. Si tratta di una riduzione dell’85% pur mantenendo l’accesso completo ai veicoli."

Per gli sviluppatori che gestiscono i server MCP, ciò modifica la strategia di ottimizzazione.

Shihipar nota che il campo “istruzioni del server” nella definizione di MCP (in precedenza a "bello averlo"- critico in questo momento. Serve come metadati che aiuta Claude "Simile alle abilità, sappi quando fare appello ai tuoi strumenti."

“Lazy Loading” e miglioramenti in termini di precisione

Sebbene il risparmio di token sia il parametro principale (il risparmio di denaro e memoria è sempre popolare), l’impatto secondario di questo aggiornamento potrebbe essere più importante: concentrazione.

I master sono notoriamente delicati "distrazione." Quando la finestra di contesto di un modello è piena di migliaia di righe di descrizioni di strumenti irrilevanti, la sua capacità di ragionamento diminuisce. Uno crea "ago nel pagliaio" Problema in cui il modello ha difficoltà a distinguere tra comandi simili come “canale di invio delle notifiche” e “canale di invio delle notifiche”.

Il presidente di Claude Code, Boris Cherny, lo ha sottolineato: Reazione al lancio di X: "Ogni utente di Claude Code riceve ancora più contenuti, un migliore seguito delle istruzioni e la possibilità di aggiungere ancora più strumenti."

I dati lo supportano. I parametri di riferimento interni condivisi dalla comunità mostrano che l’attivazione della ricerca del veicolo aumenta la precisione del modello Opus 4 nelle valutazioni MCP dal 49% al 74%.

Per il nuovo Opus 4.5, la precisione è aumentata dal 79,5% all’88,1%.

Il modello elimina il rumore di centinaia di strumenti inutilizzati. "Attenzione" meccanismi di interrogazione effettiva dell’utente e relativi strumenti attivi.

Maturazione della Pila

Questo aggiornamento segnala una maturazione nel modo in cui gestiamo l’infrastruttura AI. La forza bruta è comune agli albori di qualsiasi paradigma software. Tuttavia, man mano che i sistemi crescono, l’efficienza diventa una questione ingegneristica chiave.

Aakash Gupta ha tracciato parallelismi con l’evoluzione degli ambienti di sviluppo integrato (IDE) come VSCode o JetBrains. "Il collo di bottiglia non erano i “troppi strumenti”.

Invece del caricamento lento nell’era del 2024, l’era del 2020 stava caricando le definizioni dei veicoli come l’importazione statica." ha scritto. "VSCode non carica tutte le estensioni all’avvio. JetBrains non inserisce in memoria la documentazione per ciascun plug-in."

adottando "caricamento pigro"—una best practice standard nello sviluppo web e software — Anthropic riconosce che gli agenti AI non sono più solo novità; Sono piattaforme software complesse che richiedono disciplina architetturale.

Effetti per l’ecosistema

Per l’utente finale questo aggiornamento è perfetto: Claude Code "più intelligente" e conserva una maggiore memoria della parola. Ma apre le porte all’ecosistema degli sviluppatori.

prima di a "cappuccio morbido" Su quanto può essere abile un agente. Gli sviluppatori hanno dovuto organizzare attentamente il proprio set di strumenti per evitare di lobotomizzare il modello con un contesto eccessivo. Con Vehicle Search, questo limite viene effettivamente eliminato. Un agente può teoricamente accedere a migliaia di strumenti (connettori di database, script di distribuzione cloud, wrapper API, manipolatori di file locali) senza penalità finché tali strumenti non vengono effettivamente toccati.

Traduce: "economia del contesto" Passare da un modello di scarsità a un modello di accesso. Come riassume Gupta, "Non si limitano a ottimizzare l’utilizzo dei contenuti. Stanno cambiando il significato di “intermediari ricchi di strumenti”."

L’aggiornamento è immediatamente disponibile per gli utenti di Claude Code. Per gli sviluppatori che creano client MCP, Anthropic consiglia di implementare “ToolSearchTool” per supportare questo caricamento dinamico, garantendo che quando arriva il futuro mediato, non si esaurisca la memoria prima ancora di poter dire ciao.

Collegamento alla fonte