I produttori di chatbot devono proteggere i bambini, afferma NCMEC
X è stata molto esplicita nel vigilare sulla sua piattaforma contro i materiali pedopornografici da quando Musk ha preso il controllo di Twitter, ma sotto l’ex CEO Linda Iaccarino, la società ha adottato una posizione difensiva più ampia contro tutte le molestie sessuali basate su immagini (IBSA). Nel 2024, X è diventata una delle prime società ad adottare volontariamente Politica dell’IBSA Quella X ora sembra violare il sistema non riuscendo a modificare Grok.
Queste politiche cercano di combattere tutte le forme di IBSA, riconoscendo che anche le foto false “possono causare danni emotivi, finanziari e reputazionali devastanti”. Quando ha adottato queste politiche, X si è impegnata a prevenire la distribuzione non consensuale di immagini intime fornendo strumenti di segnalazione facili da usare per le vittime che cercano disperatamente di bloccare la “creazione o distribuzione non consensuale di immagini intime” sulla sua piattaforma.
Kate Ruen, direttrice del Centro per la democrazia e la tecnologia‘Il Free Expression Project, che ha contribuito a formare il gruppo di lavoro dietro i principi IBSA, ha detto ad Ars che, sebbene gli impegni presi da X fossero “volontari”, hanno indicato che X era d’accordo che la questione era urgente e che “le aziende dovrebbero prendere sul serio”.
“Hanno dichiarato apertamente che faranno queste cose, e non è così”, ha detto Ruane.
Mentre la controversia su Grok scatena indagini in Europa, India e Malesia, xAI potrebbe essere costretta ad aggiornare le linee guida di sicurezza di Grok o ad apportare altre modifiche per bloccare output dannosi.
Negli Stati Uniti, xAI potrebbe dover affrontare azioni legali civili ai sensi delle leggi federali o statali che limitano l’uso improprio di immagini intime. Se le attività dannose di Grok continueranno fino a maggio, X potrebbe incorrere in sanzioni ai sensi del Take It Down Act, che consente alla Federal Trade Commission di intervenire se le piattaforme non rimuovono rapidamente le immagini intime non consensuali, sia reali che generate dall’intelligenza artificiale.
Ma non è noto se le autorità statunitensi interverranno presto, dato che Musk è uno stretto alleato dell’amministrazione Trump. Un portavoce del Dipartimento di Giustizia ha detto alla CNN che il dipartimento “prende molto sul serio i contenuti di abusi sessuali su minori generati dall’intelligenza artificiale e perseguirà aggressivamente qualsiasi produttore o possessore di CSAM”.
“Le leggi sono valide tanto quanto la loro applicazione”, ha detto Ruan ad Ars. “È necessario che le forze dell’ordine presso la Federal Trade Commission o il Dipartimento di Giustizia siano disposte a perseguire queste società se violano la legge.”
I difensori della protezione dell’infanzia sembrano allarmati dalla lentezza della risposta. “Le aziende tecnologiche hanno la responsabilità di impedire che i loro strumenti vengano utilizzati per la sessualizzazione o lo sfruttamento dei bambini”, ha detto all’Ars un portavoce del NCMEC. “Con l’avanzare dell’intelligenza artificiale, la protezione dei bambini deve essere una priorità chiara e non negoziabile.”















