Ormai, probabilmente hai sentito parlare di chiamate fraudolente che usano l’IA per clonare la voce delle persone che conoscono il destinatario delle chiamate. Spesso, il risultato sembra nipoti, CEO o colleghi di lavoro che hai segnalato la questione urgente per l’azione immediata, per parlare del suo filo, per pubblicare certificati di accesso o andare su un sito Web contaminato.

Ricercatori e Funzionari del governo Avvisi minacciosi nel corso degli anni con agenzie di sicurezza informatica e infrastrutturale Ragazzi Nel 2023 che le minacce di Dipfkes e altre forme di media sintetici sono aumentate “significativamente”. L’anno scorso, il dipartimento di protezione dei mandent di Google Rapporto Questi attacchi nazionali “vengono implementati con precisione anormale, realizzati per schemi di phishing più realistici”.

Anatomia di una chiamata di scandalo di Dipfek

Mercoledì, gruppo-IB Contorno I passaggi iniziali coinvolti nello svolgimento di questo tipo di attacco. L’accettazione è che sono facili da riprodurre sulla scala e possono essere sfidati a identificare o annullare.



Lavorare in un attacco di virgola di Dipfek.

Credito: Group-IB

Lavorare in un attacco di virgola di Dipfek.


Credito: Group-IB

I passaggi iniziali sono:

Raccogliere campioni di voce della persona sotto mentite spoglie. Campioni brevi come tre secondi sono talvolta adeguati. Possono provenire da video, riunioni online o precedenti chiamate vocali.

Nutrire campioni sui motori a sintesi vocale basati sull’intelligenza artificialeCome il Tacotron 2 di Google, Val-E di Microsoft o undici servizi e AIS sono simili. Questi motori consentono all’attaccante di utilizzare un’interfaccia text-to-spot che crea parole selezionate dall’utente che il tono vocale mascherato della persona e le tecniche di conversazione. La maggior parte dei servizi impedisce l’uso di Dipfeck ma come rapporto del cliente Trovato a marzoQueste aziende sono aggirate da sforzi minimi per prevenire la pratica della sicurezza.

Un passo choshic Distribuire il numero nel travestimento dell’individuo o dell’organizzazione. Questo tipo di tecnica è stato utilizzato per decenni.

Successivamente, attaccante Avvia la chiamata scandalo. In alcuni casi, la voce clonata seguirà una sceneggiatura. In altri attacchi sofisticati, il discorso falso viene generato in tempo reale usando il mascheramento vocale o il software di conversione. Gli attacchi in tempo reale possono essere più visibili in quanto possono rispondere alla domanda che l’attaccante può porre al destinatario dei sospetti.

“Sebbene il travestimento in tempo reale sia visualizzato da progetti open source e API commerciali, il Dipfek in tempo reale in Wilde è limitato”, afferma Group-IB. “Tuttavia, dando progressi sulla velocità di elaborazione e sulle capacità del modello, si prevede che l’uso in tempo reale diventerà più comune nel prossimo futuro.”

Collegamento alla fonte