Fino a poco tempo fa, la pratica di costruire agenti IA era simile ad allenare un corridore di lunga distanza con una memoria di trenta secondi.
Sì, puoi fornire strumenti e istruzioni ai tuoi modelli di intelligenza artificiale, ma dopo qualche dozzina di interazioni (alcuni giri in pista per estendere la nostra analogia con la corsa) inevitabilmente perdono contesto e iniziano ad avere allucinazioni.
Con Ultimi aggiornamenti da OpenAI L’azienda sta segnalando la fine dell’era degli intermediari limitati alla sua Responses API, l’interfaccia di programmazione delle applicazioni sulla piattaforma OpenAI che consente agli sviluppatori di accedere a più strumenti intermediari, come la ricerca web e la ricerca di file, con un’unica chiamata.
Gli aggiornamenti annunciati oggi includono la compressione lato server, i contenitori shell ospitati e novità "Abilità" È uno standard per le agenzie.
Con questi tre importanti aggiornamenti, OpenAI offre effettivamente agli agenti una scrivania permanente, un terminale e una memoria che non svanirà e aiuterà gli agenti a diventare lavoratori digitali più affidabili e a lungo termine.
Tecnologia: superare l’“amnesia del contesto”
L’ostacolo tecnico più significativo per gli agenti autonomi è sempre stato. "ingombrare" È uno dei compiti di lunga durata. Ogni volta che un agente chiama un altro agente o esegue uno script, la cronologia delle conversazioni aumenta.
Alla fine il modello raggiunge il limite di token e lo sviluppatore è costretto ad abbreviare la cronologia; la maggior parte delle volte "ragionamento" L’agenzia deve portare a termine il lavoro.
La risposta di OpenAI è la compressione lato server. A differenza del semplice taglio, la compressione consente agli agenti di lavorare per ore o addirittura giorni.
Primi dati dalla piattaforma e-commerce Consigliato da Tripla Balena Si tratta di una svolta in termini di stabilità: il loro manager Moby è riuscito a gestire con successo una sessione contenente 5 milioni di token e 150 ride call senza alcun calo di precisione.
In termini pratici, ciò significa che il modello "riassumere" Comprimendo le proprie azioni passate, ripulisce il rumore mantenendo vivo il contesto sottostante. Trasforma il modello da un aiutante smemorato a un processo di sistema persistente.
Sandbox cloud gestiti
L’introduzione dello strumento Shell porta OpenAI nello spazio informatico gestito. Gli sviluppatori possono ora scegliere di: container_auto, Fornire un ambiente Debian 12 ospitato da OpenAI.
Non è solo un interprete di codice: fornisce a ciascun agente il proprio ambiente terminale completo, preinstallato con:
-
Ambienti di esecuzione locale Compresi Python 3.11, Node.js 22, Java 17, Go 1.23 e Ruby 3.1.
-
conservazione permanente Attraverso
/mnt/dataconsente agli agenti di creare, salvare e scaricare artefatti. -
Funzionalità di rete consente agli agenti di accedere a Internet per caricare librerie o interagire con API di terze parti.
Hosted Shell e sua persistenza /mnt/data Lo storage fornisce un ambiente gestito in cui gli agenti possono eseguire complesse trasformazioni di dati utilizzando Python o Java senza che il team debba creare e mantenere un middleware ETL (Extract, Transform, Load) personalizzato per ciascun progetto AI.
Sfruttando questi contenitori ospitati, i data engineer possono implementare attività di elaborazione dati ad alte prestazioni e allo stesso tempo ridurre al minimo i costi. "molteplici responsabilità" Questi includono la gestione di infrastrutture su misura, la rimozione delle spese generali dell’edificio e la protezione del proprio spazio virtuale. OpenAI in realtà dice questo: “Dacci le istruzioni e noi ti forniremo il computer.”
Le competenze di OpenAI e le competenze degli Antropici
Mentre OpenAI corre verso uno stack di orchestrazione degli agenti unificato, deve affrontare una sfida filosofica significativa da parte delle Agent Skills di Anthropic.
Entrambe le società convergevano su una struttura di file molto simile. SKILL.md (markdown) emergono con il precursore YAML – ma le loro strategie sottostanti rivelano visioni diverse per il futuro del lavoro.
L’approccio di OpenAI "substrato programmabile" Ottimizzato per la velocità dello sviluppatore. Combinando shell, memoria e funzionalità nell’API Responses, "chiavi in mano" Esperienza nella creazione rapida di agenti complessi.
Già l’inizio della ricerca AI aziendale Per collezionare Utilizzando il framework Skills di OpenAI, il team ha riportato un aumento della precisione dal 73% all’85%.
In risposta, Anthropic ha lanciato Agent Skills come standard aperto autonomo (agentskills.io).
Sebbene il sistema di OpenAI sia strettamente integrato nella sua infrastruttura cloud, le funzionalità di Anthropic sono progettate per la portabilità. Una competenza creata per Claude potrebbe teoricamente essere trasferita su VS Code, Cursor o un’altra piattaforma che adotti la specifica.
In effetti, il popolare nuovo agente AI open source OpenClaw ha adottato esattamente questo metodo SKILL.md manifest e il packaging basato su cartelle gli consentono di ereditare una ricchezza di informazioni procedurali specializzate originariamente progettate per Claude.
Questa compatibilità architetturale ha alimentato un approccio guidato dalla comunità "esplosione di abilità" Su piattaforme come ClawHub, che ora ospita più di 3.000 estensioni create dalla comunità, dalle integrazioni per la casa intelligente alle complesse automazioni del flusso di lavoro aziendale.
Questa impollinazione incrociata mostra che: "Talento" È diventata una risorsa portabile e con versione anziché una funzionalità bloccata dal fornitore. Poiché OpenClaw supporta più modelli, tra cui la serie GPT-5 di OpenAI e le istanze native di Llama, gli sviluppatori possono ora scrivere una competenza una volta e distribuirla in un ambiente eterogeneo di agenti.
Per i decisori tecnici, questo standard aperto sta diventando il metodo di esternalizzazione e condivisione preferito dal settore "informazioni sull’agente," Andare oltre i requisiti proprietari verso un’infrastruttura condivisa, verificabile e interoperabile.
Ma esiste un’altra importante distinzione tra OpenAI e Anthropics "Abilità."
OpenAI utilizza la compressione lato server per gestire lo stato attivo di una sessione di lunga durata. Anthropic utilizza la Progressive Disclosure, un sistema a tre livelli in cui il modello inizialmente è a conoscenza solo dei nomi e delle descrizioni delle abilità.
Tutti i dettagli e gli script di supporto vengono caricati solo quando l’attività li richiede specificamente. Ciò consente l’esistenza di enormi librerie di competenze (linee guida del marchio, liste di controllo legali e modelli di codice) senza gravare sulla memoria di lavoro del modello.
Implicazioni per i decisori tecnici aziendali
Per ingegneri concentrati "implementazione rapida e messa a punto," La combinazione di compressione lato server e competenze offre un enorme aumento della produttività
Invece di creare la gestione delle eccezioni per ogni esecuzione dello strumento, gli ingegneri possono sfruttare la compressione integrata per gestire attività di più ore.
Le competenze abilitano "IP in bundle," dove modifiche specifiche o conoscenze procedurali specializzate possono essere modularizzate e riutilizzate in diversi progetti interni.
Per coloro che hanno il compito di spostare l’IA da un luogo all’altro "casella di chat" trasformarlo in un flusso di lavoro a livello di produzione; L’annuncio di OpenAI, "infrastrutture private" età.
In passato, l’orchestrazione di un agente richiedeva un’impalcatura manuale significativa: gli sviluppatori dovevano creare una logica di gestione delle eccezioni per gestire lunghe conversazioni e gestire sandbox temporanei e sicuri per eseguire il codice.
Niente più difficoltà "Come posso dare un terminale a questo agente?" Tuttavia "Quali competenze sono autorizzate per quali utenti?" E "Come controlliamo gli artefatti prodotti nel file system ospitato?" OpenAI ha fornito il motore e il telaio; Il compito dell’orchestratore è ora quello di definire le regole della strada.
Per i responsabili delle operazioni di sicurezza (SecOps), fornire accesso alla shell e alla rete a un modello di intelligenza artificiale è un’evoluzione rischiosa. L’uso da parte di OpenAI dei segreti di dominio e degli elenchi consentiti dell’organizzazione fornisce una strategia di difesa approfondita, consentendo agli agenti di chiamare le API senza esporre le credenziali grezze al contesto del modello.
Ma man mano che gli intermediari diventano più facili da distribuire, "talenti," I SecOps dovrebbero stare attenti a questo "abilità dannose" Ciò potrebbe portare a vulnerabilità di iniezione immediate o percorsi di esfiltrazione di dati non autorizzati.
Come dovrebbero decidere le imprese?
OpenAI non vende più solo un prodotto "cervello" (modello); vende "ufficio" (contenitore), "memoria" (compressione) e "guida alla formazione" (capacità). Per i leader aziendali, la scelta diventa chiara:
-
Se hai bisogno di un ambiente integrato e ad alta velocità per operazioni autonome a lungo termine, scegli OpenAI.
-
Se la tua organizzazione richiede una portabilità indipendente dal modello e uno standard di ecosistema aperto, scegli Anthropic.
In definitiva, gli annunci segnalano che l’intelligenza artificiale si sta spostando dalla chat all’architettura del sistema. "spaghetti veloci" in flussi di lavoro aziendali gestibili, con versioni e scalabili.















