Un terzo attacco proof-of-concept relativo all’intelligenza artificiale che ha attirato l’attenzione ha utilizzato una pronta iniezione per indurre il chatbot Duo di GitLab ad aggiungere righe dannose a pacchetti di codice altrimenti validi. Una variante dell’attacco è riuscita a esfiltrare con successo i dati sensibili degli utenti.

Ancora un altro attacco degno di nota ha preso di mira lo strumento di codifica Gemini CLI. Consente agli aggressori di utilizzare strumenti di intelligenza artificiale per eseguire comandi dannosi sui computer degli sviluppatori, come i dischi rigidi.

Utilizzo dell’intelligenza artificiale come esca e assistente per l’hacking

Gli hack che coinvolgono altri LLM utilizzano chatbot per rendere gli attacchi più efficaci o furtivi. All’inizio di questo mese, due uomini sono stati accusati di aver rubato e cancellato dati governativi sensibili. Una persona, ha detto il pubblico ministero, ha cercato di coprire le sue tracce chiedendo a uno strumento di intelligenza artificiale “come faccio a cancellare i log di sistema da SQL Server dopo aver eliminato il database”. Qualche istante dopo, avrebbe chiesto allo strumento: “Come si cancellano tutti i registri degli eventi e delle applicazioni da Microsoft Windows Server 2012?” Gli investigatori sono comunque riusciti a seguire le attività degli imputati.

A maggio, un uomo si è dichiarato colpevole di aver hackerato un dipendente della Walt Disney Company inducendolo con l’inganno a eseguire una versione dannosa di uno strumento di generazione di immagini AI open source ampiamente utilizzato.

E ad agosto, i ricercatori di Google hanno avvisato gli utenti dell’agente chat Salesforce Drift AI che tutti i token di sicurezza allegati alla piattaforma erano stati compromessi considerando che aggressori sconosciuti utilizzavano alcune credenziali per accedere alla posta elettronica dagli account Google Workspace. Gli aggressori hanno utilizzato i token per ottenere l’accesso ai singoli account Salesforce e potrebbero essere utilizzati per rubare informazioni da lì, comprese le credenziali, in altre violazioni.

Si sono verificati anche numerosi casi di vulnerabilità LLM che si sono ritorte a colpire le persone che le hanno utilizzate. In un caso, Copilot è stato sorpreso a esporre i contenuti di oltre 20.000 repository GitHub privati ​​di aziende tra cui Google, Intel, Huawei, PayPal, IBM, Tencent e Microsoft. I repository erano originariamente disponibili anche tramite Bing. Alla fine Microsoft ha rimosso i repository dalle ricerche, ma Copilot continua comunque a pubblicarli.

Collegamento alla fonte