NASHVILLE, Tennessee — Questa settimana tre adolescenti del Tennessee hanno intentato una causa contro xAI di Elon Musk, sostenendo che gli strumenti di creazione di immagini dell’azienda venivano utilizzati per trasformare foto reali di se stessi in immagini apertamente sessuali.

Gli studenti delle scuole superiori che volevano procedere sotto pseudonimi hanno intentato una causa in California, dove ha sede la società di intelligenza artificiale xAI di Musk. Stanno cercando lo status di class action per rappresentare l’affermazione della causa secondo cui ci sono migliaia di vittime come loro che erano minorenni o minorenni quando le loro immagini sessualmente esplicite sono state create.

Secondo l’accusa, Jane Doe 1 è stata avvisata in modo anonimo a dicembre che qualcuno stava distribuendo immagini sessualmente esplicite di lei su un sito di social media.

“Almeno cinque di questi file, un video e quattro immagini, raffiguravano il suo volto e il suo corpo in ambienti familiari, ma venivano trasformati in pose suggestive”, si legge nella causa. Si sostiene che la persona che distribuiva le immagini conosceva Doe e utilizzava gli strumenti di rendering di xAI per trasformare le sue foto reali in foto di sfruttamento sessuale. Una delle immagini è stata presa da una foto di ritorno a casa. Un altro è stato preso da un annuario del liceo.

ALTRO: Musk nominato nella causa di San Francisco per presunte false dichiarazioni su Twitter che hanno fatto crollare i prezzi delle azioni

La persona che ha diffuso le immagini ha anche creato immagini esplicite di almeno altre 18 ragazze, due delle quali coinvolte nel caso. Alla fine di dicembre, la polizia locale ha arrestato l’autore del reato e sequestrato il suo telefono. Hanno scoperto che caricava le immagini su varie piattaforme e le scambiava con immagini sessualmente esplicite di altri minori.

Altre società di intelligenza artificiale hanno vietato ai creatori di immagini di produrre contenuti sessualmente espliciti, anche per adulti. Secondo la causa, Musk ha visto questa come un’opportunità di business e ha promosso la capacità del chatbot Grok di xAI di creare contenuti “piccanti”. Tuttavia, la causa sostiene che attualmente non esiste alcun modo per bloccare la creazione di immagini esplicite di adulti bloccando completamente la creazione di immagini per bambini. Si sostiene inoltre che xAI sapesse che Grok poteva produrre immagini sessualmente esplicite di bambini, ma le ha comunque pubblicate.

La causa sostiene che la persona che ha distribuito le immagini dei querelanti ha utilizzato un’applicazione che concedeva in licenza la tecnologia xAI o “altrimenti ha acquistato l’accesso a Grok ed è stata utilizzata come intermediario o intermediario”.

XAI non ha risposto a un’e-mail dell’Associated Press in cerca di commenti. Ma un post del 14 gennaio sulla controversia sulla piattaforma dei social media

“Agiamo per rimuovere contenuti che violano ad alta priorità, incluso materiale pedopornografico (CSAM) e nudità non consensuale, e adottiamo le misure appropriate contro gli account che violano le nostre Regole X. Segnaliamo inoltre gli account che cercano materiale pedopornografico alle forze dell’ordine, a seconda dei casi.”

Nel frattempo, gli studenti coinvolti nel caso hanno affermato di essere preoccupati che le immagini create da loro rimarrebbero su Internet per sempre. Hanno paura di essere seguiti perché negli schedari figurano i loro veri nomi e il nome della loro scuola. Si preoccupano che i loro amici e compagni di classe abbiano visto foto e video apparentemente reali, e si preoccupano di chi li vedrà in futuro.

Jane Doe 1 ha affermato di aver sperimentato ansia, depressione e stress. “Ha difficoltà a mangiare e dormire e ha incubi ricorrenti”, si legge nella causa. Jane Doe 2 “ha iniziato a isolarsi ed evitare di essere nel campus della scuola e ha persino paura di andare alla propria laurea”. Secondo l’accusa, Jane Doe 3 sperimenta costante paura e ansia che qualcuno veda le immagini generate dall’intelligenza artificiale e riconosca il suo volto.

Copyright © 2026 dell’Associated Press. Tutti i diritti riservati.

Collegamento alla fonte