“GTA 6 Alert – Very Serious Situation”, si legge nel post di X/Twitter dall’account Zap Actu GTA6. La presunta clip di gameplay del prossimo blockbuster Surefire di Rockstar è breve ma, se fosse vera, sarebbe una fuga di notizie davvero schiacciante.

Naturalmente, questo non è vero. Non è una perdita. Non è nemmeno un vero gameplay. È l’ennesimo video “leak” di GTA 6 generato dall’intelligenza artificiale, visto da milioni di persone in diretta sui social media, che sembra incapace di fare nulla al di là della strana nota della community.

Il tweet qui sotto, pubblicato ieri, 25 novembre, è diventato virale, raccogliendo 8 milioni di visualizzazioni in sole 24 ore. Sotto, una nota della comunità mette in guardia contro la sua veridicità, ma ciò sembra fare ben poco per attenuarne l’impatto. Ed è tutt’altro che l’unico. Lo stesso account Twitter responsabile di questa “fuga di notizie” ha pubblicato un numero simile di clip negli ultimi mesi, alcuni con visualizzazioni enormi, tutti in un disperato tentativo di acquisire follower e membri Discord.

Sulla base delle risposte, molti utenti di Twitter stanno prendendo queste fughe di notizie per oro colato. È un problema che GTA 6 deve affrontare ormai da un po’ di tempo, il che non sorprende data l’intensa eccitazione e la sete di nuove informazioni che si prevede sarà forse il più grande lancio di intrattenimento di tutti i tempi. Ma i videogiochi non sono gli unici a soffrire di questo problema. In effetti, i videogiochi non sono i soli a farlo.

Il mese scorso, IGN ha riferito del fisico Brian Cox, che ha reso pubbliche le lamentele sugli account YouTube che utilizzavano l’intelligenza artificiale per creare deepfake dicendo “sciocchezze” sulla cometa 3I/ATLAS. Allo stesso modo, Keanu Reeves ha recentemente venduto prodotti su AI Deepfakes con protagonista John Wick senza il suo permessoSottolineando “Non è molto divertente”. Lo si sapeva già a luglio Reeves paga un’azienda diverse migliaia di dollari al mese per convincere TikTok e Meta a eliminare gli imitatori.

Nel 2023, Tom Hanks ha avvertito i fan che una versione AI di se stesso veniva utilizzata senza il suo consenso in un annuncio online per un piano dentale. L’anno scorso, Morgan Freeman ha ringraziato i fan che l’hanno avvisata delle imitazioni online della sua voce generate dall’intelligenza artificiale dopo che una serie di video realizzati in cui posava come sua nipote sono diventati virali. E nel maggio di quest’anno, Jamie Lee Curtis è stato costretto a fare appello al CEO di Meta Mark Zuckerberg in un post su Instagram perché non riusciva a convincere l’azienda a pubblicare un annuncio generato dall’intelligenza artificiale che era “una stronzata che non approvavo, non condividevo o non supportavo”.

Qual è la soluzione qui? A luglio, si diceva che YouTube si stesse preparando ad aggiornare le sue politiche per reprimere la capacità dei creatori di generare entrate da contenuti “non provati”, che sono più facili da produrre su larga scala con l’intelligenza artificiale generativa. Mentre esplori il fantastico algoritmo di YouTube, probabilmente ti sei imbattuto in uno o due trailer falsi. La speranza era che YouTube fosse in grado di reprimere i canali che pompano questo tipo di contenuti con poco sforzo, ma una rapida occhiata agli spettacoli di YouTube non è ancora avvenuta.

Senza leggi obbligatorie che includano etichette che identifichino chiaramente i contenuti creati da strumenti di intelligenza artificiale generativa o leggi che impediscano i deepfake senza autorizzazione, i fan continueranno a essere fuorviati da malintenzionati. E con il miglioramento della tecnologia dell’intelligenza artificiale generativa, distinguere tra falso e reale diventerà più difficile.

Si può fare qualcosa di significativo? Il mese scorso, il governo giapponese ha presentato una richiesta formale a OpenAI di astenersi dalla violazione del copyright, dopo che gli utenti di Sora 2 avevano creato video con sembianze di personaggi protetti da copyright di anime e videogiochi.

Sora 2, lanciato da OpenAI il 1° ottobre, è in grado di produrre video della durata di 20 secondi con risoluzione 1080p, completi di audio. Subito dopo il rilascio, i social media sono stati inondati di video creati dall’app, molti dei quali presentavano personaggi protetti da copyright di famosi anime e franchise di giochi come One Piece, Demon Slayer, Pokemon e Mario. Nonostante le proteste giapponesi, il CEO di OpenAI Sam Altman ha dichiarato i video di Sora 2 “fan fiction interattiva” utilizzando personaggi protetti da copyright.

Zap Actu GTA6, nel frattempo, non sembra infastidito da alcuna possibile reazione negativa e sta pubblicando altri falsi “leak” di GTA 6. L’ultimo, pubblicato solo poche ore fa quando questo articolo è stato pubblicato, ha già avuto 220.300 impressioni. Sul loro Discord, che sta lentamente guadagnando nuovi membri, una persona che si è unita oggi ha messo in dubbio cosa stessero facendo, dicendo: “Se questa è AI, è irrispettoso verso i fan, amico @ZapActu.” ZapActu non ha ancora risposto.

Se stai cercando le migliori offerte questa settimana, stiamo raccogliendo attivamente le potenti offerte del Black Friday su videogiochi, tecnologia e altro ancora. Puoi trovare tutte le nostre migliori scelte e le riduzioni di prezzo nel nostro hub completo del Black Friday o consultare le nostre pagine pertinenti per le offerte PlayStation, Nintendo e Xbox.

Wesley è il direttore delle notizie di IGN. Trovatelo su Twitter all’indirizzo @wyp100. Puoi contattare Wesley a wesley_yinpoole@ign.com o privatamente a wyp100@proton.me.