Ma “questo non può essere”, ha sostenuto Goldberg.
Di fronte alla minaccia implicita che “Groke avrebbe messo online le foto di St. Clair e, forse, ne avrebbe realizzate altre”, St. Clair non aveva altra scelta che contattare Groke, ha sostenuto Goldberg. E la pretesa di St. Clair nella sua causa non dovrebbe essere indotta dalla legge di New York, ha sostenuto Goldberg, chiedendo alla corte di annullare il contratto xAI di St. Clair e respingere la mozione di xAI per un cambio di sede.
Se St. Clair vincesse la sua battaglia per portare avanti la causa a New York, il caso potrebbe potenzialmente aiutare a creare un precedente per milioni di altre vittime che stanno prendendo in considerazione un’azione legale ma temono di affrontare xAI in un tribunale scelto da Musk.
“Sarebbe ingiusto aspettarsi che St. Clair litigasse in uno stato così lontano dalla sua residenza, e potrebbe darsi il caso che un processo in Texas sarebbe così difficile e scomodo che a St. Clair verrebbe effettivamente negato il suo giorno in tribunale”, ha sostenuto Goldberg.
Grok può danneggiare i bambini
Il volume stimato di immagini sessuali segnalate questa settimana è allarmante perché suggerisce che Grok, al culmine dello scandalo, stava creando più materiale pedopornografico (CSAM) al mese di quanto X potesse trovare sulla sua piattaforma.
Nel 2024, X Safety ha segnalato 686.176 segnalazioni di materiale pedopornografico al Centro nazionale per i bambini scomparsi e sfruttati, con una media di circa 57.000 segnalazioni di materiale pedopornografico al mese. Se la stima del CCDH fosse di 23.000 Grok che infettano sessualmente i bambini in un periodo di 11 giorni, il totale medio mensile potrebbe superare i 62.000 se i Grok non venissero controllati.
L’NCMEC non ha risposto immediatamente alla richiesta di Ars di commentare il confronto tra il volume stimato di materiale pedopornografico di Grok e la media dei rapporti CSAM di X. Ma l’NCMEC aveva precedentemente dichiarato ad Ars che “indipendentemente dal fatto che un’immagine sia reale o generata dal computer, il danno è reale e il materiale è illegale”. Ciò suggerisce che Grok potrebbe essere stato una spina nel fianco di NCMEC, poiché CCDH ha avvertito che anche se X avesse rimosso i post dannosi di Grok, “è comunque possibile accedere alle immagini tramite URL separati”, suggerendo che il CSAM di Grok e altri output dannosi potrebbero essere diffusi. Il CCDH ha anche riscontrato casi di presunti materiali pedofilia che X non ha rimosso fino al 15 gennaio.















