Presentato OpenAI oritteropoUN. Agente investigatore di sicurezza autonomo alimentato da GPT-5 disponibile ora nella beta privata.
Progettato per emulare il modo in cui gli esperti umani identificano e risolvono le vulnerabilità del software, Aardvark offre un approccio multifase basato su LLM su base continuativa 24 ore su 24./7/365 analisi del codice, approfitta della verificaE produzione di toppe!
Posizionato come strumento di difesa scalabile per i moderni ambienti di sviluppo software, Aardvark viene testato su codebase interne ed esterne.
Sebbene OpenAI riporti un elevato richiamo e un’efficacia reale nell’identificazione delle vulnerabilità note e sintetiche, le prime implementazioni rivelano problemi di sicurezza precedentemente non rilevati.
Aardvark arriva sulla scia del rilascio di ieri da parte di OpenAI dei modelli di salvaguardia gpt-oss, espandendo la recente enfasi dell’azienda sui sistemi sensibili agli agenti e alle politiche.
Progettazione tecnica e commerciale
Aardvark funziona come un sistema intermediario che analizza costantemente i repository del codice sorgente. A differenza degli strumenti tradizionali che si basano sul fuzzing o sull’analisi della composizione del software, Aardvark utilizza capacità di ragionamento e strumenti LLM per interpretare il comportamento del codice e identificare le vulnerabilità.
Simula il flusso di lavoro di un ricercatore di sicurezza leggendo codice, eseguendo analisi semantiche, scrivendo ed eseguendo casi di test e utilizzando strumenti diagnostici.
Il processo segue una pipeline strutturata in più fasi:
- 
Modellazione delle minacce – Aardvark inizia la sua analisi recuperando l’intero repository di codice per creare un modello di minaccia. Questo modello riflette gli obiettivi di sicurezza dedotti e la progettazione dell’architettura del software. 
- 
Scansione a livello di promessa – Man mano che vengono apportate modifiche al codice, Aardvark confronta le differenze con il modello di minaccia del repository per rilevare potenziali vulnerabilità. Esegue inoltre scansioni della cronologia quando si connette per la prima volta a un repository. 
- 
Sandbox di autenticazione – Le vulnerabilità rilevate vengono testate in un ambiente isolato per verificarne la sfruttabilità. Ciò riduce i falsi positivi e aumenta la precisione del report. 
- 
Patching automatico – Il sistema si integra con OpenAI Codex per creare patch. Queste correzioni proposte vengono quindi esaminate e inviate tramite richieste pull per l’approvazione dello sviluppatore. 
Aardvark si integra con GitHub, Codex e le pipeline di sviluppo dei partner per fornire una scansione di sicurezza continua e non invasiva. Tutti gli approfondimenti sono destinati a essere verificabili dall’uomo con spiegazioni chiare e ripetibilità.
Prestazioni e applicazione
Secondo OpenAI, Aardvark opera da diversi mesi su codebase interne e con partner alfa selezionati.
Nei test benchmark su repository “golden” pieni di vulnerabilità note e sinteticheAardvark ha identificato il 92% dei problemi totali.
OpenAI evidenzia la sua accuratezza e il basso tasso di falsi positivi come differenze chiave.
Lo strumento è stato utilizzato anche in progetti open source. Ad oggi sono state scoperte numerose criticità, tra cui dieci vulnerabilità a cui sono stati assegnati identificatori CVE.
OpenAI rileva che tutti i risultati vengono divulgati in modo responsabile nell’ambito della sua politica di divulgazione coordinata recentemente aggiornata, che incoraggia la collaborazione piuttosto che scadenze rigide.
In pratica, Aardvark ha scoperto bug complessi oltre i tradizionali difetti di sicurezza, inclusi errori logici, correzioni mancanti e rischi per la privacy. Ciò implica un vantaggio più ampio che va oltre i contesti specifici della sicurezza.
Integrazione e requisiti
Durante la beta privata, Aardvark è disponibile solo per le organizzazioni che utilizzano GitHub Cloud (github.com). OpenAI invita i beta tester iscriviti qui Online compilando un modulo web. Le condizioni di partecipazione includono:
- 
Integrazione con GitHub Cloud 
- 
Impegno a interagire con Aardvark e fornire feedback qualitativo 
- 
Accetta i termini e le politiche sulla privacy specifici della versione beta 
OpenAI ha confermato che il codice inviato ad Aardvark durante la beta non verrà utilizzato per addestrare i suoi modelli.
L’azienda offre inoltre la scansione gratuita delle vulnerabilità per repository open source non commerciali selezionati, citando la sua intenzione di contribuire alla salute della catena di fornitura del software.
Contesto strategico
Il lancio di Aardvark segnala un movimento più ampio da parte di OpenAI verso sistemi di intelligenza artificiale delle agenzie con capacità specifiche del dominio.
Mentre OpenAI è meglio conosciuto per i suoi modelli generici (ad esempio GPT-4 e GPT-5), Aardvark fa parte di una tendenza in crescita.f agenti esperti di intelligenza artificiale È progettato per funzionare in modo semi-autonomo in ambienti reali. Infatti, attualmente si unisce ad altri due broker OpenAI attivi:
- 
Agente ChatGPT, introdotto nel luglio 2025, che controlla un computer virtuale e un browser Web e può creare e modificare file di produttività collaborativa 
- 
Codex: in precedenza il nome del modello di codifica open source di OpenAI; questo modello è stato preso e riutilizzato come nome del nuovo agente di codifica AI supportato dalla variante GPT-5 introdotto nel maggio 2025. 
Ma un rappresentante focalizzato sulla sicurezza ha molto senso, soprattutto perché aumentano le richieste sui team di sicurezza.
Solo nel 2024 sono state segnalate più di 40.000 vulnerabilità ed esposizioni comuni (CVE) e i dati interni di OpenAI mostrano che l’1,2% di tutti i commit del codice porta a bug.
Il posizionamento di Aardvark come IA “difensiva prima” è in linea con la necessità del mercato di strumenti di sicurezza proattivi che si integrino strettamente con i flussi di lavoro degli sviluppatori anziché operare come livelli di scansione post-hoc.
Gli aggiornamenti coordinati della politica di divulgazione di OpenAI rafforzano ulteriormente il suo impegno per una collaborazione sostenibile con gli sviluppatori e la comunità open source, piuttosto che enfatizzare la segnalazione di vulnerabilità ostili.
Mentre il rilascio di ieri di oss-safeguard utilizzava un ragionamento basato sulla catena di pensiero per applicare le politiche di sicurezza durante l’inferenza, Aardvark applica un ragionamento LLM simile per proteggere le basi di codice in evoluzione.
Insieme, questi strumenti segnano la transizione di OpenAI da strumenti statici a sistemi flessibili e costantemente adattabili; uno si concentra sulla moderazione dei contenuti, l’altro sul rilevamento proattivo delle vulnerabilità e sull’applicazione automatica di patch negli ambienti di sviluppo software reali.
Cosa significa per le aziende e per il futuro del mercato della sicurezza informatica?
Aardvark rappresenta l’incursione di OpenAI nella ricerca automatizzata sulla sicurezza attraverso l’intelligenza artificiale dell’agenzia. Aardvark combina la comprensione del linguaggio di GPT-5 con sandbox di verifica e patch incentrati sul Codex per fornire una soluzione integrata per i team software moderni che devono affrontare una crescente complessità di sicurezza.
Sebbene sia attualmente in versione beta limitata, i primi indicatori di prestazione indicano il potenziale per un’adozione più ampia. Se dimostrato efficace su larga scala, Aardvark potrebbe contribuire al cambiamento nel modo in cui le organizzazioni incorporano la sicurezza negli ambienti di sviluppo continuo.
Per i leader della sicurezza incaricati di gestire la risposta agli incidenti, il rilevamento delle minacce e le protezioni quotidiane (in particolare coloro che lavorano con capacità di team limitate), Aardvark può fungere da moltiplicatore di forza. La pipeline di verifica autonoma e le raccomandazioni sulle patch verificabili dall’uomo possono semplificare la definizione delle priorità e ridurre l’affaticamento degli avvisi, consentendo ai team di sicurezza più piccoli di concentrarsi sugli incidenti strategici anziché sulla scansione e il monitoraggio manuali.
Gli ingegneri dell’intelligenza artificiale responsabili dell’integrazione dei modelli nei prodotti live possono trarre vantaggio dalla capacità di Aardvark di scoprire errori causati da sottili errori logici o correzioni mancanti, soprattutto nei cicli di sviluppo in rapido movimento. Poiché Aardvark monitora le modifiche a livello di commit e le tiene traccia rispetto ai modelli di minaccia, può aiutare a prevenire le vulnerabilità introdotte durante l’iterazione rapida senza rallentare le tempistiche di consegna.
Per i team che gestiscono l’intelligenza artificiale in ambienti distribuiti, la convalida sandbox di Aardvark e i cicli di feedback continui possono adattarsi bene alle pipeline di tipo CI/CD per i sistemi di machine learning. La sua capacità di connettersi ai flussi di lavoro GitHub lo posiziona come un’aggiunta compatibile ai moderni stack di operazioni di intelligenza artificiale, in particolare quelli che mirano a integrare robusti controlli di sicurezza nelle pipeline di automazione senza costi generali.
Le funzionalità di auditing mirate di Aardvark possono fornire un ulteriore livello di resilienza per i team dell’infrastruttura dati che proteggono pipeline e strumenti critici. Le vulnerabilità nei livelli di orchestrazione dei dati spesso passano inosservate finché non vengono sfruttate; Il processo continuo di revisione del codice di Aardvark può scoprire problemi nelle prime fasi del ciclo di vita dello sviluppo e aiutare gli ingegneri dei dati a mantenere sia l’integrità del sistema che i tempi di attività.
In pratica, Aardvark rappresenta un cambiamento nel modo in cui le competenze in materia di sicurezza possono essere rese operative non solo per scopi difensivi, ma come partecipante persistente e consapevole del contesto nel ciclo di vita del software. La sua progettazione suggerisce un modello in cui i difensori non sono più strozzati in termini di scala, ma ricevono maggiore potere da agenti intelligenti che lavorano al loro fianco.
 
            