I contenuti basati sull’intelligenza artificiale sono proliferati su Internet negli ultimi anni, ma con il passare del tempo quelle prime conversazioni si sono evolute in immagini e video sintetici difficili da distinguere da quelli reali. Avendo contribuito a creare questo problema, Google ha una certa responsabilità nel controllare i video AI su YouTube. A tal fine, l’azienda ha iniziato a distribuire ai produttori il sistema di rilevamento simile promesso.

I modelli di intelligenza artificiale potenti e disponibili gratuitamente di Google hanno contribuito ad alimentare l’aumento dei contenuti di intelligenza artificiale, inclusa la diffusione di disinformazione e le molestie nei confronti degli individui. Creatori e influencer temono che i loro marchi possano essere offuscati da un’ondata di video di intelligenza artificiale che li mostrano mentre dicono e fanno cose mai accadute: anche i legislatori se ne preoccupano. Google ha fatto una grande scommessa sul valore dei contenuti basati sull’intelligenza artificiale, quindi bandire l’intelligenza artificiale da YouTube, come molti vorrebbero, semplicemente non sta accadendo.

All’inizio di quest’anno, YouTube ha promesso strumenti che avrebbero segnalato i contenuti AI che rubano la faccia sulla piattaforma. Strumenti di rilevamento simili, simili al sistema di rilevamento del copyright del sito, si sono ora espansi oltre il piccolo gruppo iniziale di tester. YouTube afferma che al primo gruppo di creatori idonei è stato comunicato che possono utilizzare un’identificazione simile, ma le parti interessate dovranno fornire più informazioni personali a Google per essere protette dalle frodi legate all’intelligenza artificiale.

Anteprima: rilevamento della somiglianza su YouTube.

Al momento, il rilevamento delle somiglianze è una funzionalità beta in fase di test limitata, quindi non tutti i creator la vedranno come un’opzione in YouTube Studio. Quando appare, verrà inserito nel menu esistente “Rilevamento contenuto”. Nel video dimostrativo di YouTube, il flusso di configurazione presuppone che il canale abbia un solo host che richiede una protezione simile. Quella persona deve verificare la propria identità, il che richiede una foto di un documento d’identità governativo e un video del suo volto. Non è chiaro il motivo per cui YouTube abbia bisogno di questi dati oltre ai video che le persone hanno già pubblicato con i loro volti così furtivi, ma le regole sono regole.

Collegamento alla fonte