Un profondo video del primo ministro australiano Anthony Albanis su uno smartphone

Australian Associated Press/Almi

Un rilevatore universale profondo ha raggiunto la migliore precisione nel manipolare una varietà di video o nel generare completamente dall’intelligenza artificiale. La tecnologia può aiutare la bandiera con pornografia non cosciente generata dall’IA, truffe di DeepFeek o video di disinformazione elettorale nella bandiera.

La disponibilità completa di strumenti di creazione di DeepFek in AI-inaccurati economici ha alimentato la diffusione online fuori controllo dei video sintetici. Molte persone raffiguravano le donne – in cui celebrità e persino studentesse – in pornografia non aconsuel. E DeepFAC è stato anche usato per influenzare le elezioni politiche, nonché per aumentare le truffe finanziarie che mirano sia ai consumatori comuni che ai funzionari dell’azienda.

Ma la maggior parte dei modelli di intelligenza artificiale sono addestrati per rilevare il video sintetico focalizzato sui volti, il che significa che sono più efficaci nello individuare un tipo specifico di Fack Deep, in cui il volto di una persona reale viene scambiato in un video esistente. “Abbiamo bisogno di un modello che sarà in grado di rilevare video con il viso e manipolazione in background o video completamente trasmesso dall’intelligenza artificiale”, afferma Rohit Kundu All’Università della California, Riverside. “Il nostro modello è assolutamente una questione di preoccupazione: crediamo che l’intero video possa essere prodotto artificialmente.”

Kundu e i suoi colleghi hanno addestrato molti elementi di fondo del video e il loro rivelatore universale gestito dall’IA per monitorare il volto delle persone. Può vedere i sottili segni di anomalie spaziali e cosmiche in Deepfec. Di conseguenza, può rilevare lo stato di illuminazione incoerente su coloro che sono stati inseriti artificialmente nel video del face-swap, la descrizione dello sfondo di un video completamente trasmesso dall’IA include discrepanze e persino video sintetici includono segni di AI Herfer che non hanno volti umani. Il rivelatore contrassegna anche le immagini che sembrano realistiche dai videogiochi, come Grand Theft Auto V, che non è necessariamente prodotto dall’IA.

“La maggior parte degli attuali metodi gestisce i video a face-swap, che sincronizzano i labbra o il viso di rinnovamento della coscienza che coscono un volto con una singola immagine,” Sivaei liu All’università di Buffalo a New York. “Questo metodo ha una gamma retorica diffusa.”

Il rivelatore universale ha acquisito tra il 95 percento e la precisione del 99 percento nell’identificare quattro serie di video di test che coinvolgono il traino. Questo tipo di Fack Deep è migliore di tutti gli altri metodi pubblicati per rilevare. Durante il monitoraggio completamente del video sintetico, ha anche risultati più accurati di qualsiasi altro rivelatore. Ricercatore Ha presentato il tuo lavoro A 2025 IEEE/Conferenza sulla visione artificiale e il riconoscimento dei pattern a Nashville, nel Tennessee il 15 giugno.

Molti ricercatori di Google hanno anche partecipato allo sviluppo di nuovi rilevatori. Google non ha risposto alle domande sul fatto che questo metodo di ricerca possa aiutare a individuare DeepFack sulle sue piattaforme come YouTube. Ma la società è una di coloro che supportano uno strumento di filigrana che rende più facile identificare il materiale generato dal loro sistema AI.

I rilevatori universali possono anche essere migliorati in futuro. Ad esempio, sarebbe utile se potesse rilevare DeepFake pubblicato durante le chiamate di videoconferenza in diretta, un trucco ha già iniziato a usare alcuni truffatori.

“Come fai a sapere che la persona dall’altra parte è autentica, o è un video profondamente prodotto e può anche essere determinato che il video viaggia su una rete ed è influenzato dalle caratteristiche della rete, come la larghezza di banda disponibile?” Dicono Amit Roy-Chaudhari All’Università della California, Riverside. “Questa è un’altra direzione che stiamo vedendo nel nostro laboratorio.”

Soggetto:

Collegamento alla fonte