Man mano che i modelli diventano più intelligenti e capaci, "imbracature" Deve svilupparsi anche attorno a loro. Questo "ingegneria dei cablaggi" è un’estensione dell’ingegneria del contesto, dice LangChain co-fondatore e CEO Harrison Chase nuovo podcast VentureBeat Beyond the Pilot sezione. Mentre l’hardware AI tradizionale tende a limitare l’esecuzione dei modelli in loop e la chiamata agli agenti, l’hardware progettato specificamente per gli agenti AI consente loro di interagire in modo più indipendente ed eseguire attività a lungo termine in modo efficace.

Chase ha anche parlato dell’acquisizione di OpenClaw da parte di OpenAI, sostenendo che il suo successo virale era dovuto alla sua volontà di acquisirlo. "lascialo strappare" In un modo che nessun grande laboratorio può fare, ed è discutibile se questa acquisizione porterà effettivamente OpenAI più vicino a una versione aziendale sicura del prodotto. “La tendenza nei sistemi di cablaggio è in realtà quella di dare al Large Language Model (LLM) stesso un maggiore controllo sull’ingegneria del contesto, lasciandogli decidere cosa vedere e cosa no”, afferma Chase. “Ora l’idea di un assistente più autonomo e a lungo termine è fattibile”.

Monitorare i progressi e mantenere la coerenza

Sebbene il concetto di consentire ai LLM di eseguire e richiamare strumenti in un ciclo sembri relativamente semplice, farlo in modo affidabile è impegnativo, ha osservato Chase. Per un po’ i modelli erano “al di sotto della soglia di utilità” e non potevano essere eseguiti in loop, quindi gli sviluppatori hanno utilizzato grafici e scritto catene per aggirare questo problema. Chase ha indicato AutoGPT, un tempo il progetto GitHub in più rapida crescita di sempre, come esempio cautelativo: aveva la stessa architettura dei principali broker di oggi, ma i modelli non erano ancora abbastanza buoni per funzionare in modo affidabile in un ciclo, quindi è rapidamente svanito. Ma man mano che i Master continuano ad evolversi, i team possono creare ambienti in cui i modelli possono essere eseguiti in cicli e pianificare su orizzonti più lunghi e possono migliorare continuamente questo hardware. In precedenza, “Non potevi realmente apportare miglioramenti all’hardware perché non potevi eseguire il modello con un’imbracatura”, ha detto Chase. La risposta di LangChain a questa domanda è Deep Agents, uno strumento personalizzabile. cintura di sicurezza per uso generale. È basato su LangChain e LangGraph e dispone di funzionalità di pianificazione, un file system virtuale, gestione di contenuti e token, esecuzione di codice, competenze e funzioni di memoria. Può delegare compiti anche a subagenti; sono specializzati con diversi strumenti e configurazioni e possono operare in parallelo. Anche il contesto è isolato; Ciò significa che l’esecuzione dell’agente secondario non mescola il contesto dell’agente padre e il contesto dell’attività secondaria di grandi dimensioni viene compresso in un unico risultato per l’efficienza del token. Chase ha spiegato che questi agenti hanno tutti accesso ai file system e possono essenzialmente creare elenchi di cose da fare che possono eseguire e monitorare nel tempo. “Una volta che arriva al passaggio successivo e arriva al secondo, terzo o quarto passaggio in un processo di 200 passaggi, c’è un modo per monitorare i suoi progressi e mantenere quella coerenza”, ha detto Chase. “Si tratta davvero di lasciare che il LLM scriva i suoi pensieri mentre procede.” Ha sottolineato che le cinture dovrebbero essere progettate in modo che i modelli possano mantenere la coerenza durante le missioni più lunghe e per “adattarsi” ai modelli per decidere quando comprimere il contesto nei punti che ritiene “vantaggiosi”. Inoltre, consentire agli agenti di accedere a interpreti di codice e strumenti BASH aumenta la flessibilità. Fornire agli agenti competenze anziché semplici strumenti preinstallati consente loro di caricare le informazioni quando ne hanno bisogno. “Quindi, invece di codificare tutto in un unico grande prompt di sistema," Chase ha spiegato: "potresti usare un prompt di sistema più piccolo: “Questa è la base di base, ma se devo fare X, lasciami leggere l’abilità per X. Se devo fare Y, lasciami leggere l’abilità per Y.”"

Essenzialmente, l’ingegneria del contesto è un modo “davvero fantasioso” per dire: cosa vede il Maestro? Perché ha affermato che questo era diverso da ciò che hanno visto gli sviluppatori. Quando gli sviluppatori umani possono analizzare le tracce degli agenti, possono collocarsi nella “mentalità” dell’intelligenza artificiale e rispondere a domande come: qual è il prompt del sistema? Come è stato creato? Statico o affollato? Di quali strumenti dispone l’agente? Come viene presentato quando effettui una chiamata e ricevi una risposta? “Quando gli agenti sbagliano, lo fanno perché non hanno il contesto giusto; quando hanno successo, hanno successo perché hanno il contesto giusto”, ha detto Chase. “Penso che l’ingegneria del contesto significhi portare le informazioni giuste nel formato giusto al LLM al momento giusto.” Ascolta il podcast per saperne di più:

  • Come LangChain ha costruito il suo stack: LangGraph come pilastro di base, LangChain al centro, Deep Agents in alto.

  • Perché i sandbox di codifica saranno la prossima grande novità

  • Come si evolverà un diverso tipo di UX man mano che gli agenti lavorano per intervalli più lunghi (o continuamente)?

  • Perché le tracce e l’osservabilità sono importanti per costruire uno strumento che funzioni davvero?

Puoi anche ascoltare e iscriverti. Oltre il pilota Aprire Spotify, Mela o ovunque trovi i tuoi podcast.

Collegamento alla fonte