La memoria degli agenti continua a essere un problema che le aziende vogliono risolvere, poiché gli agenti dimenticano alcune istruzioni o conversazioni più a lungo lavorano.
antropico Crede di aver risolto questo problema da solo. SDK dell’agente Claudesviluppa una duplice soluzione che consente ad un agente di operare in diverse finestre di contesto.
“Il problema principale con gli agenti di lunga data è che devono lavorare in sessioni separate e ogni nuova sessione inizia senza alcun ricordo di ciò che è accaduto prima”, ha scritto Anthropic. un post sul blog. “Poiché le finestre di contesto sono limitate e la maggior parte dei progetti complessi non possono essere completati in un’unica finestra, gli agenti hanno bisogno di un modo per colmare il divario tra le sessioni di codifica”.
Gli ingegneri di Anthropic hanno proposto un duplice approccio per l’Agent SDK: un agente iniziatore per impostare l’ambiente e un agente di codifica che effettua progressi incrementali con ogni sessione, lasciando gli artefatti alla sessione successiva.
Problema di memoria dell’agente
Poiché gli agenti sono costruiti su modelli di base, rimangono limitati, anche se le loro finestre di contesto in continua crescita sono limitate. Per gli agenti che lavorano per lunghi periodi di tempo, ciò può creare un problema più grande e portare l’agente a dimenticare le istruzioni e ad agire in modo anomalo durante l’esecuzione di un’attività. Miglioramento della memoria dell’agente diventa essenziale per prestazioni coerenti e sicure per il business.
Nell’ultimo anno sono emersi vari metodi, tutti volti a colmare il divario tra le finestre di contesto e la memoria dell’agente. LangChainSDK LangMem, base della nota E OpenAISwarm è un esempio di azienda che offre soluzioni di memoria. Anche la ricerca sulla memoria dell’autore del reato è esplosa di recente; Framework come Memp E Paradigma dell’apprendimento nidificato da Google Offre nuove alternative per migliorare la memoria.
La maggior parte dei framework di memoria esistenti sono open source e possono idealmente ospitare intermediari che alimentano diversi modelli linguistici di grandi dimensioni (LLM). L’approccio di Anthropic migliora rispetto a Claude Agent SDK.
Come funziona?
Anthropic ha stabilito che, sebbene Claude Agent SDK abbia funzionalità di gestione del contesto e “sia possibile per un agente continuare a svolgere un lavoro utile per un periodo di tempo arbitrariamente lungo”, ciò non è sufficiente. La società ha annunciato nel suo post sul blog che un modello Come l’Opus 4.5 L’esecuzione di Claude Agent SDK “potrebbe non riuscire a creare un’applicazione web di qualità produttiva se viene fornito solo un comando di alto livello come ‘crea un clone di claude.ai’.”
Anthropic sostiene che i fallimenti si verificano in due modi. Innanzitutto, l’agente ha tentato di fare troppe cose, facendo sì che il modello andasse fuori contesto nella parte centrale. L’agente deve quindi indovinare cosa succederà dopo e non può trasmettere istruzioni chiare all’agente successivo. Il secondo errore si verifica successivamente, dopo che alcune funzionalità sono già state create. L’agente vede i progressi compiuti e dichiara il lavoro completato.
I ricercatori di Anthropic hanno individuato la soluzione: creare un ambiente iniziale per gettare le basi per le funzionalità e incoraggiare ciascun agente a compiere progressi incrementali verso un obiettivo, lasciando comunque una tabula rasa alla fine.
È qui che entra in gioco la soluzione in due parti dell’agente di Anthropic. L’agente di avvio configura l’ambiente registrando le operazioni eseguite dagli agenti e i file aggiunti. L’agente di codifica chiederà quindi ai modelli di eseguire progressi incrementali e rilasciare gli aggiornamenti configurati.
“L’ispirazione per queste app è venuta dalla conoscenza di ciò che fanno ogni giorno gli ingegneri del software più influenti”, ha affermato Anthropic.
I ricercatori hanno affermato di aver aggiunto strumenti di test all’agente di codifica, migliorandone la capacità di identificare e correggere bug che non sono solo evidenti nel codice.
ricerca futura
Anthropic ha affermato che il suo approccio era “una possibile soluzione inserita in un agente di lunga durata”. Ma questo è solo l’inizio di quello che potrebbe diventare per molti un campo di ricerca più ampio nel campo dell’intelligenza artificiale.
La società ha affermato che i suoi esperimenti per migliorare la memoria a lungo termine per gli agenti non hanno indicato se un singolo agente di codifica generico funzioni meglio in tutti i contesti o in una struttura multi-agente.
La sua demo si concentrava anche sullo sviluppo di applicazioni web full-stack, quindi ulteriori esperimenti dovrebbero concentrarsi sulla generalizzazione dei risultati a compiti diversi.
“È probabile che alcune o tutte queste lezioni possano essere applicate ai tipi di missioni di agenzia a lungo termine richieste, ad esempio, nella ricerca scientifica o nella modellizzazione finanziaria”, ha affermato Anthropic.















