Nonostante l’hype sul fatto che questi agenti siano colleghi, dalla nostra esperienza, questi agenti tendono a funzionare meglio se li si pensa come strumenti che estendono le competenze esistenti, non come colleghi autonomi come implica il linguaggio del marketing. Possono produrre rapidamente bozze impressionanti, ma richiedono comunque una costante correzione della rotta da parte dell’uomo.
Il lancio arriva appena tre giorni dopo che Frontier ha rilasciato una nuova app desktop macOS per OpenAI Codex, il suo strumento di codifica AI, che i dirigenti di OpenAI descrivono come un “centro di comando per agenti”. Codex consente agli sviluppatori di app di eseguire più thread di agenti in parallelo, ciascuno lavorando su una copia separata della base di codice tramite alberi di lavoro Git.
OpenAI ha rilasciato giovedì GPT-5.3-Codex, un nuovo modello di intelligenza artificiale che alimenta le app Codex. OpenAI afferma che il team del Codex ha utilizzato le prime versioni di GPT-5.3-Codex per eseguire il debug della propria formazione del modello, gestirne l’implementazione e valutare i risultati dei test, come ha detto OpenAI ad Ars Technica in un’intervista di dicembre.
“Il nostro team è rimasto stupito da quanto Codex sia riuscito ad accelerare il proprio sviluppo”, ha scritto la società. Nel Terminal-Bench 2.0, il benchmark di codifica degli agenti, GPT-5.3-Codex, ha ottenuto il 77,3%, battendo il nuovo Opus 4.6 di Anthropic di circa 12 punti percentuali.
Il filo conduttore di tutti questi prodotti è il cambiamento dei ruoli utente. Invece di limitarsi a digitare un messaggio e attendere un’unica risposta, lo sviluppatore o il lavoratore della conoscenza diventa come un supervisore, assegnando compiti, monitorando i progressi e intervenendo quando un agente ha bisogno di indicazioni.
In quest’ottica, gli sviluppatori e i lavoratori della conoscenza diventano effettivamente i quadri intermedi dell’intelligenza artificiale. Cioè, non scrivere o analizzare il codice da soli, ma delegare compiti, rivedere l’output e sperare che gli agenti sotto di loro non rompano silenziosamente le cose. Se funzionerà (o se sarà effettivamente una buona idea) è ancora ampiamente dibattuto.















