Nessuno sa come X intenda eliminare i cattivi suggeritori
Mentre alcuni utenti si concentrano su come X possa ritenere X responsabile dei risultati di Grok quando X addestra il modello, altri si chiedono come esattamente X intenda controllare il contenuto illegale che Grok sembra essere in grado di generare.
Più trasparenza sul modo in cui la pubblicazione sulla piattaforma X controlla il materiale pedopornografico Lo scorso settembre, X Safety Rapporto che ha “una politica di tolleranza zero nei confronti dei contenuti CSAM”, la maggior parte dei quali viene rilevata “automaticamente” utilizzando la tecnologia hash proprietaria per contrassegnare in modo proattivo i contenuti CSAM noti.
Con il sistema, lo scorso anno sono stati sospesi più di 4,5 milioni di account e X ha segnalato “centinaia di migliaia” di immagini al Centro nazionale per i bambini scomparsi e sfruttati (NCMEC). Il mese prossimo, il capo della sicurezza X, Kylie McRoberts Sicuro che “nel 2024, 309 segnalazioni presentate da X all’NCMEC hanno portato ad arresti e successive condanne in 10 casi” e nella prima metà del 2025 “170 segnalazioni hanno portato ad arresti”.
“Quando rileviamo materiale apparentemente pedopornografico, agiamo rapidamente e nella maggior parte dei casi sospendiamo permanentemente l’account, rimuovendo automaticamente il contenuto dalla nostra piattaforma”, ha affermato X Safety. “Quindi segnaliamo l’account all’NCMEC, che collabora con le forze dell’ordine di tutto il mondo, compreso il Regno Unito, per perseguire la giustizia e proteggere i bambini”.
All’epoca, X aveva promesso di “persistere” nella sua “missione di eliminare materiale pedopornografico”, ma se lasciati deselezionati, gli output dannosi di Grok rischiano di creare nuovi tipi di materiale pedopornografico che il sistema non rileverà automaticamente. Su X, alcuni utenti hanno suggerito che il meccanismo di reporting della piattaforma dovrebbe essere migliorato per aiutare a segnalare output Grok potenzialmente non validi.
Un altro aspetto preoccupantemente vago della risposta di X Safety è la definizione che X utilizza per contenuto non valido, o CSAM, suggerito da alcuni utenti di X. Su tutte le piattaforme, non tutti sono d’accordo sui danni. Alcuni critici erano sconvolti dal fatto che le immagini in bikini sessualizzassero personaggi pubblici, inclusi medici o avvocati, senza il loro consenso, mentre altri, incluso Mask, consideravano le immagini in bikini uno scherzo.
Esattamente il punto in cui X traccia la linea nel materiale pedopornografico generato dall’intelligenza artificiale può determinare se le immagini vengono eliminate rapidamente o se i recidivi vengono identificati e sospesi. Qualsiasi account o contenuto non controllato potrebbe offendere bambini reali le cui immagini potrebbero essere utilizzate per incitare Grok. E se Grok dovesse mai essere utilizzato per inondare Internet di falsi materiale pedopornografico, la storia recente suggerisce che potrebbe rendere più difficile per le forze dell’ordine indagare su casi reali di abusi sui minori.















