Un portavoce ha detto al Wall Street Journal Che “la pornografia non consensuale e gli strumenti per crearla sono espressamente proibiti dai termini di servizio di Telegram e vengono rimossi ogni volta che vengono scoperti”.

Per i procedimenti giudiziari contro i minorenni, l’obiettivo principale è la stessa censura. I suoi avvocati pensano che potrebbe bloccare l’app e i suoi siti affiliati negli Stati Uniti, ha riferito il WSJ, se ClothOff non rispondesse e il tribunale concedesse la sua sentenza in contumacia.

Ma qualunque sia l’esito del caso, l’adolescente spera che un liceale rimanga per sempre “perseguitato” dai falsi nudi che ha creato senza dover affrontare alcuna accusa.

Secondo il WSJ, l’adolescente ha fatto causa al ragazzo che, secondo lei, la voleva fuori da scuola. La sua denuncia afferma di essere stato informato che “individui responsabili e altri potenziali testimoni non hanno collaborato, parlato o fornito accesso ai loro dispositivi elettronici alle forze dell’ordine”.

L’adolescente “si è sentita emotivamente e psicologicamente traumatizzata e da allora ha subito conseguenze a lungo termine”, si legge nella denuncia. Non ho idea se Clothoff possa continuare a distribuire immagini dannose, e non ho idea di quanti adolescenti le abbiano pubblicate online. A causa di queste incognite, è sicuro che trascorrerà “il resto della sua vita” a “vegliare” la resurrezione di queste immagini.

“Sapere che le sue immagini CSAM sarebbero quasi inevitabilmente finite su Internet e ridistribuite ad altri, come pedofili e trafficanti, ha creato un senso di disperazione” e “una paura perpetua che le sue immagini potessero essere viste di nuovo in qualsiasi momento e da innumerevoli altri, forse anche amici, familiari o partner più anziani, accusando i suoi datori di lavoro al college”, ha detto Future.

Il caso di Kishore è l’ultimo fronte di sforzi più ampi per reprimere CSAM e NCII generati dall’intelligenza artificiale. Fa seguito a una precedente causa intentata lo scorso anno dal procuratore della città di San Francisco David Chew che prendeva di mira Clothoff tra le 16 app popolari utilizzate per foto “nude” di donne e ragazze.

Circa 45 stati hanno criminalizzato la finta nudità, riferisce il WSJ, e all’inizio di quest’anno Donald Trump ha firmato il Take It Down Act, che richiede alle piattaforme di rimuovere sia l’NCII reale che quella generata dall’intelligenza artificiale entro 48 ore dalla segnalazione delle vittime.

Collegamento alla fonte