Le valutazioni forniscono una forte controargomentazione alle narrazioni esagerate espresse dalle società di intelligenza artificiale, molte delle quali cercano nuovi round di finanziamenti di rischio, secondo cui il malware generato dall’intelligenza artificiale è diffuso e fa parte di un nuovo paradigma che rappresenta una minaccia attuale per le difese tradizionali.

Un esempio comune è l’antropologia, che Segnalato di recente È la scoperta di un attore di minacce che usa il suo Claude LL.M. per “sviluppare, commercializzare e distribuire diverse varianti di ransomware, ciascuna con capacità di evasione avanzate, crittografia e meccanismi anti-ripristino”. La società ha dichiarato: “Senza l’aiuto di Claude, non sarebbero riusciti a implementare o risolvere i componenti chiave del malware come algoritmi di crittografia, tecniche anti-analisi o manipolazione interna di Windows”.

Avvia ConnectWise Recentemente il Dott Quell’intelligenza artificiale generativa stava “abbassando il livello di accesso affinché gli autori delle minacce entrassero nel gioco”. Una citazione dal post Rapporti separati OpenAI ha scoperto che 20 diversi autori di minacce hanno utilizzato il suo motore AI ChatGPT per creare malware per attività tra cui il rilevamento di vulnerabilità, la generazione di codice di exploit e il debug di tale codice. Bugcrowd, nel frattempo, disse In un sondaggio condotto su individui autoselezionati, “il 74% degli hacker concorda sul fatto che l’intelligenza artificiale ha reso l’hacking più accessibile, aprendo la porta ai nuovi arrivati ​​per unirsi al gruppo”.

In alcuni casi, gli autori di tali rapporti notano le stesse limitazioni menzionate in questo articolo. Il rapporto di Google di mercoledì afferma che in un’analisi degli strumenti di intelligenza artificiale utilizzati per creare codice per gestire i canali di comando e controllo e offuscarne le operazioni, “non abbiamo visto prove di automazione di successo o di capacità rivoluzionarie”. OpenAI ha detto più o meno la stessa cosa. Tuttavia, queste dichiarazioni di non responsabilità vengono raramente messe in evidenza e spesso si riducono alla frenesia di ritrarre il malware assistito dall’intelligenza artificiale come una minaccia a breve termine.

Il rapporto di Google fornisce almeno un altro risultato utile. Un attore di minacce che ha sfruttato il modello di intelligenza artificiale Gemini dell’azienda è stato in grado di aggirare le sue recinzioni fingendosi un hacker dal cappello bianco che cercava di partecipare a un gioco “cattura la bandiera”. Questi esercizi competitivi sono progettati per insegnare e dimostrare tecniche di attacco informatico efficaci sia ai partecipanti che agli spettatori.

Tali recinzioni sono integrate in tutti i principali LLM per impedire che vengano utilizzati in modo dannoso, come negli attacchi informatici e nell’autolesionismo. Google afferma di avere contromisure più sicure per contrastare tali stratagemmi.

In definitiva, il malware generato dall’intelligenza artificiale e rilasciato fino ad oggi suggerisce che si tratti per lo più di una sperimentazione e che i risultati non siano impressionanti. Vale la pena monitorare gli eventi per individuare gli sviluppi che mostrano che gli strumenti di intelligenza artificiale creano nuove funzionalità precedentemente sconosciute. Per ora, però, le minacce maggiori si basano principalmente su tattiche antiquate.

Collegamento alla fonte