Hany Farid, un professore dell’UC Berkeley specializzato in informatica forense ma non coinvolto nella ricerca di Microsoft, afferma che se l’industria adottasse il progetto dell’azienda, sarebbe significativamente più difficile ingannare il pubblico con contenuti manipolati. Secondo lui, individui o governi sofisticati potrebbero lavorare per aggirare tali strumenti, ma il nuovo standard potrebbe eliminare una parte significativa dei contenuti ingannevoli.

“Non penso che risolva il problema, ma penso che ne tolga una buona parte”, dice.

Tuttavia, ci sono ragioni per considerare l’approccio di Microsoft come un esempio di tecno-ottimismo un po’ ingenuo. c’è prove crescenti Le persone vengono influenzate dai contenuti generati dall’intelligenza artificiale, anche se sanno che sono sbagliati. e recentemente Studio I commenti su un video filo-russo generato dall’intelligenza artificiale sulla guerra in Ucraina che suggeriva che i video fossero stati creati con l’intelligenza artificiale hanno ricevuto molto meno coinvolgimento rispetto ai commenti che presumevano che fossero autentici.

“Ci sono persone che, qualunque cosa tu dica loro, crederanno in quello in cui credono?” chiede Farid. “SÌ.” Ma, dice, “C’è una grande parte di americani e cittadini di tutto il mondo che penso vogliano sapere la verità”.

A causa di questo desiderio, le aziende tecnologiche non hanno intrapreso azioni immediate. Google ha iniziato ad aggiungere filigrane ai contenuti generati dai suoi strumenti di intelligenza artificiale nel 2023, cosa che secondo Farid è stata utile nella loro indagine. Alcune piattaforme utilizzano lo standard di origine C2PA di Microsoft ha contribuito al lancio Nel 2021. Ma l’intera serie di cambiamenti suggeriti da Microsoft, per quanto potenti, potrebbero rimanere semplici suggerimenti se minacciassero i modelli di business delle società di intelligenza artificiale o delle piattaforme di social media.

Collegamento alla fonte