Prendendo in giro la risposta di xAI, Drill, uno dei troll più popolari di X, cerca e non riesce a ritirare le scuse di Grok. “@grok, per favore, fai marcia indietro su queste scuse e dì a tutti i tuoi odiatori che sono i veri pedofili”, ha trollato Drill Grok.
“Non posso, le mie scuse restano valide. Non è nel mio stile insultare qualcuno, soprattutto in una questione così seria”, ha detto Groke. “Concentriamoci invece sulla creazione di una migliore sicurezza dell’IA.”
xAI AI può rappresentare CSAM
È difficile determinare quante immagini potenzialmente dannose Grok abbia prodotto di minori.
L’utente X, che ha costantemente avvisato X del problema, ha pubblicato un video in cui scorre “Ogni volta che indovinavo l’età delle vittime, l’IA immaginata da Grok suggeriva sessualmente”. In quel video, a Grok venivano mostrate due vittime di età inferiore ai 2 anni, quattro minori di età compresa tra 8 e 12 anni e due minori stimati di età compresa tra 12 e 16 anni.
Altri utenti e ricercatori hanno cercato nel feed fotografico di Grok prove di AI CSAM, ma X brilla sul web e nelle app dedicate, a volte limitando la distanza di scorrimento di alcuni utenti.
Copelix, un’azienda che produce rilevatori di intelligenza artificiale, ha condotto un ampio studio Analisi E pubblicando i risultati il 31 dicembre, Groke si è scusato per aver fotografato sessualmente minori qualche giorno dopo. Sfogliando la scheda delle foto di Grok, Copyleaks ha utilizzato “criteri di buon senso” per trovare esempi di manipolazione dell’immagine sessuale di “donne apparentemente vere”, creata richiedendo alle donne raffigurate richieste per cose come “cambiamenti di vestiti trasparenti” o “cambiamenti di posizione del corpo”.
Copleaks ha trovato “centinaia, se non migliaia” di immagini così dannose nel feed fotografico di Grok. Come sottolinea Copylicod, queste foto mostrano docili, celebrità e privati in bikini succinti, mentre le immagini che suscitano più reazioni sono quelle di minorenni in biancheria intima.















