Al World Economic Forum di Davos la scorsa settimana, la prima domanda in un panel sull’“intelligenza artificiale empatica” è arrivata da una donna di 22 anni spaventata. Ha detto al pubblico che era stato “esposto” usando Grok e voleva sapere cosa poteva fare al riguardo.
Grok è un chatbot AI rilasciato dalla società xAI di Elon Musk e integrato in X. Musk ha affermato di aver rimosso i controlli di sicurezza utilizzati da altri sistemi di intelligenza artificiale. Gli utenti hanno scoperto rapidamente cosa ciò significava nella pratica. Possono anche ordinare a Grok di rimuovere digitalmente gli indumenti di persone reali nelle foto pubblicate online senza il consenso delle persone raffigurate. Da allora, migliaia di donne hanno denunciato di essere state umiliate, molestate e ferite.
Per mesi queste perdite sono state ammortizzate come costi di innovazione. Le cose stanno iniziando a cambiare.
Questa settimana a Coalizione bipartisan dei procuratori generali dello Stato ha lanciato un giro di vite coordinato contro Grok e xAI, chiedendo un’azione immediata per fermare la produzione di immagini sessuali non consensuali e preservare le prove per le indagini. Gli Stati indicano che le leggi esistenti in materia di protezione dei consumatori, privacy e protezione dei minori si applicano quando un danno è causato da un sistema di intelligenza artificiale.
La risposta è globale. D Commissione europea Grok ha ufficialmente avviato un’indagine su X per determinare se non abbia rispettato gli obblighi legali previsti dalla legge sui servizi digitali dell’Unione Europea dopo essere stato utilizzato per creare immagini sessuali non consensuali di donne e bambini. Le autorità di regolamentazione stanno verificando se X ha valutato e mitigato adeguatamente i rischi prima di implementare Grok e se ha protetto gli utenti da contenuti illegali e dannosi. I funzionari europei hanno descritto i deepfake come violenti e inaccettabili e hanno avvertito che le aziende potrebbero subire sanzioni sostanziali se violassero la legge.
In regolatore del Regno Unito Grok è indagato ai sensi della legge sulla sicurezza online. altri paesi, comprese Indonesia e MalesiaGrok è stato temporaneamente bloccato in risposta alla controversia Questa pressione normativa globale mostra che i governi non sono più disposti a considerare i danni derivanti dall’intelligenza artificiale come un rischio futuro astratto.
Eppure il dibattito elitario sull’intelligenza artificiale a Davos e altrove continua solo a promuoverne i potenziali benefici. Un medico afferma che l’intelligenza artificiale aiuterà a curare il cancro entro cinque anni. Un professore ha detto che avrebbe rivoluzionato l’istruzione. Un amministratore delegato ha affermato che creerebbe più posti di lavoro di qualsiasi altra potenza nella storia. Questi risultati potrebbero essere possibili, ma dalla discussione manca il modo in cui questi sistemi stanno già rimodellando la vita in modi dannosi e ingiusti.
Le implicazioni nel mondo reale sono di ampia portata e in crescita. I sistemi di intelligenza artificiale sono in gran parte progettati da un gruppo ristretto e non rappresentativo di ingegneri e investitori e le loro tecnologie riflettono e amplificano i pregiudizi razziali, di genere e socioeconomici esistenti. Più del 40 per cento Le startup private di intelligenza artificiale in California non hanno donne nei loro consigli di amministrazione. Il processo decisionale automatizzato determina sempre più chi viene assunto o licenziato, chi ha diritto a un alloggio, assistenza sanitaria o credito e chi viene segnalato per la sorveglianza o l’attenzione delle forze dell’ordine, spesso senza trasparenza e senza alcuna responsabilità significativa. Quando nessun decisore umano è responsabile, il giusto processo viene compromesso.
L’intelligenza artificiale generativa potenzia anche la disinformazione. Il deepfake e la propaganda mirata possono essere prodotti in massa, distruggendo la fiducia nelle elezioni, nel giornalismo e nelle istituzioni democratiche. La sorveglianza basata sull’intelligenza artificiale consente a governi e aziende di rintracciare attivisti e giornalisti e mettere a tacere il dissenso. Una volta implementati, questi sistemi raramente scompaiono.
Le implicazioni sul lavoro sono altrettanto gravi. Milioni di lavoratori rischiano lo sfollamento quando la gestione algoritmica rende difficile contrastare trattamenti ingiusti o discriminazioni. Allo stesso tempo, la catena di fornitura dell’intelligenza artificiale fa affidamento su manodopera sfruttata, compresi i moderatori di contenuti che subiscono gravi danni emotivi.
Lo scandalo Groke illustra un problema più profondo. Mentre le aziende si affrettano a implementare potenti sistemi di intelligenza artificiale senza garanzie di base, il pubblico diventa un banco di prova. I danni non sono speculativi. È privato, spesso permanente e portato avanti da persone con capacità estremamente minime.
Le recenti azioni dei procuratori generali statali, dei regolatori dell’UE, delle autorità del Regno Unito e di altri mostrano che l’intervento è possibile e necessario. Ciò che manca è la leadership federale.
Il Congresso non dovrebbe aspettare il prossimo scandalo. I legislatori dovrebbero stabilire standard nazionali che richiedano test di sicurezza indipendenti prima di rilasciare sistemi di intelligenza artificiale, imporre la conformità e la tutela della privacy per l’uso di immagini e identità, creare una chiara responsabilità per le piattaforme che traggono profitto da contenuti dannosi e applicare la protezione dei diritti civili contro la discriminazione automatizzata.
Non si tratta di fermare l’innovazione. Si tratta di garantire che l’innovazione sia al servizio del pubblico e tuteli i diritti fondamentali. Gli Stati hanno agito. Altre democrazie hanno funzionato. È tempo che il Congresso agisca prima che si facciano ulteriori danni.
Kerry Kennedy è un’attivista per i diritti umani, avvocato e presidente del Robert and Ethel Kennedy Center for Human Rights.
Le opinioni espresse in questo articolo appartengono all’autore.















