Cherepanov e Strysk erano fiduciosi che la loro scoperta, che hanno soprannominato PromptLock, avrebbe segnato un punto di svolta nell’intelligenza artificiale generativa, mostrando come la tecnologia potesse essere utilizzata per creare attacchi malware altamente flessibili. ha pubblicato a articolo del blog Annunciando di aver scoperto il primo esempio di ransomware basato sull’intelligenza artificiale, l’obiettivo è diventato presto su larga scala globale media Attenzione.

Ma il pericolo non era così drammatico come sembrava a prima vista. Il giorno dopo la pubblicazione del post sul blog, un team di ricercatori della New York University rivendicato la responsabilità, Spiegando che il malware non era, in realtà, un attacco vero e proprio rilasciato in libertà, ma piuttosto un progetto di ricerca, progettato solo per dimostrarlo possibile Per automatizzare ogni fase della campagna ransomware, cosa che, hanno detto, è stata fatta.

PromptLock potrebbe essersi rivelato un progetto accademico, ma i veri cattivi Sono Utilizzando gli strumenti di intelligenza artificiale più recenti. Proprio come gli ingegneri del software utilizzano l’intelligenza artificiale per scrivere codice e indagare sui bug, gli hacker utilizzano questi strumenti per ridurre il tempo e lo sforzo necessari per organizzare un attacco, abbassando le barriere che impediscono agli aggressori meno esperti di tentare qualcosa.

La possibilità che gli attacchi informatici diventino ora più comuni e più efficaci nel tempo non è una possibilità lontana, ma “una pura realtà”, afferma Lorenzo Cavallaro, professore di informatica all’University College di Londra.

Alcuni nella Silicon Valley hanno avvertito che l’intelligenza artificiale è sul punto di essere in grado di sferrare attacchi completamente automatizzati. Ma la maggior parte dei ricercatori nel campo della sicurezza ritiene che questa affermazione sia esagerata. “Per qualche ragione, tutti si stanno concentrando su questa idea di malware simile ai superhacker IA, il che è assolutamente assurdo”, afferma Marcus Hutchins, principale ricercatore di minacce presso la società di sicurezza Expel e famoso nel mondo della sicurezza per aver sventato un massiccio attacco ransomware globale chiamato WannaCry nel 2017.

Invece, sostengono gli esperti, dovremmo prestare maggiore attenzione ai rischi più immediati posti dall’intelligenza artificiale, che stanno già accelerando e aumentando il volume delle truffe. I criminali utilizzano sempre più spesso le ultime tecnologie deepfake per impersonare persone e defraudare le vittime di ingenti somme di denaro. Questi attacchi informatici potenziati dall’intelligenza artificiale diventeranno sempre più distruttivi e dobbiamo essere preparati.

Spam e non solo

Gli aggressori hanno iniziato ad adottare strumenti di intelligenza artificiale generici subito dopo l’esplosione di ChatGPT alla fine del 2022. Questi sforzi, come puoi immaginare, sono iniziati con la creazione di spam, e in gran parte. Un resoconto dell’anno scorso Microsoft ha detto Nell’anno precedente all’aprile 2025, la società aveva bloccato truffe e transazioni fraudolente per un valore di 4 miliardi di dollari, “probabilmente aiutate da contenuti di intelligenza artificiale”.

Secondo le stime dei ricercatori della Columbia University, dell’Università di Chicago e di Barracuda Networks, almeno la metà delle e-mail di spam vengono ora generate utilizzando LLM, che Analisi Prima e dopo il lancio di ChatGPT sono stati raccolti circa 500.000 messaggi dannosi. Hanno anche trovato prove del fatto che l’intelligenza artificiale viene sempre più utilizzata in schemi più sofisticati. Hanno esaminato gli attacchi e-mail mirati che si spacciano per una persona fidata per ingannare un lavoratore all’interno di un’organizzazione e sottrargli denaro o informazioni sensibili. Entro aprile 2025, hanno scoperto che almeno il 14% dei tipi di attacchi email mirati erano stati generati utilizzando LLM, rispetto al 7,6% dell’aprile 2024.

Collegamento alla fonte