In sintesi
Il procuratore generale Rob Bonta ha detto che il suo ufficio sta indagando se un nuovo strumento di modifica delle immagini basato sull’intelligenza artificiale della società di Elon Musk viola la legge della California.
Il procuratore generale della California Rob Bonta ha annunciato oggi un’indagine su come X e xAI di Elon Musk hanno infranto la legge consentendo la diffusione senza permesso di immagini di nudo o di sesso sessuale nelle ultime settimane.
xAI secondo quanto riferito Il mese scorso ha aggiornato il suo strumento Grok AI per consentire la modifica delle immagini. Gli utenti di X, la piattaforma di social media collegata allo strumento, hanno iniziato a utilizzare Grok per rimuovere indumenti dalle immagini di donne e bambini.
“È scioccante che ci sia stata una valanga di rapporti che dettagliano il materiale sessualmente esplicito non consensuale che xAI ha prodotto e pubblicato online nelle ultime settimane”, ha detto Bonta. ha detto in una dichiarazione scritta. “Questo materiale, che raffigura donne e bambini nudi e in situazioni sessualmente esplicite, è stato utilizzato per molestare le persone online. Chiedo a xAI di agire immediatamente per garantire che ciò non vada oltre.”
Bonta ha esortato i californiani che desiderano segnalare immagini di se stessi o dei propri figli mentre si spogliano o compiono atti sessuali a visitare la struttura oag.ca.gov/report.
Ricerca Ottenuto da Bloomberg Si è scoperto che X ora produce più immagini di nudo o di natura sessuale non consensuali rispetto a qualsiasi altro sito web online. In un post su X, Musk ha promesso “conseguenze” per le persone che creano contenuti illegali con lo strumento. Venerdì Grok ha limitato l’editing delle immagini agli abbonati paganti.
Una potenziale strada per Bonta per perseguire xAI è attraverso una legge. entrato in vigore appena due settimane fa creare responsabilità legale per la creazione e la distribuzione pornografia “deepfake”.
Sam Dordulian, che in precedenza lavorava nell’unità per crimini sessuali dell’ufficio del procuratore distrettuale della contea di Los Angeles, ma ora lavora in uno studio privato come avvocato per persone in casi che coinvolgono deepfake o vendetta porno, ha affermato che x e xAI violano le disposizioni di quella legge, nota come AB 621.
La deputata Rebecca Bauer-Kahan, autrice della legge, ha detto a CalMatters la scorsa settimana di aver contattato i pubblici ministeri, tra cui l’ufficio del procuratore generale e il procuratore della città di San Francisco, per ricordare loro che potevano agire secondo la legge. Quello che è successo in X è ciò a cui mira l’AB 621, ha detto Bauer-Kahan.
“Le immagini di donne reali vengono alterate senza il loro consenso, e il danno psicologico e reputazionale è devastante”, ha detto il democratico di San Ramon in una dichiarazione via email. “Le immagini di bambini minorenni vengono utilizzate per creare materiale pedopornografico e questi siti web facilitano consapevolmente questo.”
L’indagine di Bonta arriverà tra poco. chiedere un’indagine del governatore Gavin Newsom, la risposta delle autorità di regolamentazione dell’Unione Europea e dell’India e i divieti X in Malesia, Indonesia e potenzialmente nel Regno Unito. Durante il download dell’app Grok Aumento degli app store di Apple e GoogleX deve far fronte alle richieste di legislatori e sostenitori di vietare i download.
Perché Grok ha creato questa funzionalità in questo modo e come risponderà alla controversia che la circonda non è chiaro e le risposte potrebbero non arrivare. un’analisi recentemente completata È il meno trasparente tra i principali sistemi di intelligenza artificiale oggi disponibili. xAI non ha risposto alle domande sull’indagine di CalMatters.
“La perdita psicologica e reputazionale è devastante”.
Rebecca Bauer-Kahan, deputata democratica, San Ramon
Le prove dei danni concreti dei deepfake si stanno accumulando. FBI nel 2024, Gli strumenti deepfake per ricattare gli adolescenti sono un problema crescente Ciò ha portato a casi di autolesionismo e suicidio. Sono stati rilevati più controlli: Il materiale pedopornografico è incluso nei dati di addestramento dei modelli di intelligenza artificialepermettendo loro di creare foto suggestive. UN. Ricerca del Centro per la democrazia e la tecnologia 2024 È emerso che il 15% degli studenti delle scuole superiori aveva sentito o visto immagini sessualmente esplicite di qualcuno che conosceva a scuola nell’ultimo anno.
L’indagine annunciata oggi è l’ultima azione del procuratore generale per fare pressione sulle società di intelligenza artificiale affinché proteggano i bambini. Alla fine dell’anno scorso, Bonta ha approvato un disegno di legge che impedirebbe ai chatbot che parlano di autolesionismo e conversazioni sessualmente esplicite di interagire con persone sotto i 18 anni. Si è anche unito ai procuratori generali di altri 44 stati nell’invio di una lettera chiedendo perché aziende come Meta e OpenAI consentono ai loro chatbot di impegnarsi in conversazioni sessualmente inappropriate con minori.
Dal 2019 la California ha approvato quasi una mezza dozzina di leggi per proteggere le persone dai deepfake. Ultimo, Legge del Parlamento 621Modifica e rafforza una legge approvata nel 2019; soprattutto, consentendo ai procuratori distrettuali di sporgere denuncia contro le aziende che “aiutano e favoriscono incautamente” la distribuzione di deepfake senza il consenso della persona raffigurata nuda o impegnata in atti sessuali. Ciò significa che la persona media può chiedere al procuratore generale dello stato o al procuratore distrettuale del luogo in cui vive di intentare una causa per suo conto. Ciò aumenta anche l’importo massimo che un giudice può assegnare a un individuo da $ 150.000 a $ 250.000. Per legge, un pubblico ministero non è tenuto a dimostrare che una persona raffigurata in un’immagine nuda o sessuale generata dall’intelligenza artificiale sia stata effettivamente danneggiata per portare il caso in tribunale. I siti web che rifiutano di conformarsi entro 30 giorni potrebbero essere soggetti a sanzioni di 25.000 dollari per violazione.
Oltre a queste leggi, due progetti di legge (UE 1831 E SB1381La legge, firmata nel 2024, amplia la definizione statale di pornografia infantile per rendere illegale il possesso o la distribuzione di materiale pedopornografico creato artificialmente. un altro necessario Le piattaforme di social media offrono alle persone un modo semplice per richiedere la rimozione immediata dei deepfake, descrivendo la pubblicazione di tale materiale come una forma di furto di identità digitale. Lo scorso anno è stata promulgata una legge californiana che limita l’uso dei deepfake nelle elezioni Ucciso da un giudice federale l’estate scorsa A seguito della causa intentata da X ed Elon Musk.
Ogni nuova legge statale aiuta a fornire ad avvocati come Dordulian un nuovo modo per affrontare gli usi dannosi dei deepfake, ma Dordulian afferma che le persone hanno ancora bisogno di nuove leggi per proteggersi. Ha detto che i suoi clienti devono affrontare sfide per dimostrare violazioni delle leggi esistenti perché richiede la distribuzione di materiale sessualmente esplicito (ad esempio, attraverso un’app di messaggistica o una piattaforma di social media) affinché le protezioni entrino in gioco. Nella sua esperienza, le persone che usano app di nudizzazione spesso si conoscono, quindi la distribuzione non sempre avviene e, se succede, può essere difficile da dimostrare.
Ad esempio, ha detto di avere una cliente che lavorava come tata e ha affermato che il padre dei bambini di cui si prendeva cura l’aveva dipinta usando le foto che aveva pubblicato su Instagram. La tata ha trovato le immagini sul suo iPad. Questa scoperta lo ha disturbato e ha causato un trauma emotivo, ma poiché non poteva utilizzare le leggi sui deepfake, è stato costretto a fare causa per negligenza o disagio emotivo e leggi che non sono mai state create per affrontare i deepfake. Allo stesso modo, Le vittime hanno detto alla CNBC l’anno scorso Ha affermato che la distinzione tra creazione e distribuzione di deepfake lascia una lacuna nella legge in alcuni stati degli Stati Uniti.
“La legge deve seguire ciò che sta realmente accadendo sul campo e ciò che le donne stanno attraversando; è proprio l’atto stesso della creazione il problema”, ha detto Dordulian. ha detto.
La co-fondatrice e direttrice Jennifer Gibson ha affermato che la California è stata in prima linea nell’approvazione di leggi per proteggere le persone dai deepfake, ma le leggi esistenti sono attualmente inadeguate. silenzioun gruppo formato poco più di un anno fa che fornisce servizi legali gratuiti ai lavoratori della tecnologia e dell’intelligenza artificiale interessati a denunciare. La legge della California, entrata in vigore il 1° gennaio, protegge gli informatori delle società di intelligenza artificiale solo se lavorano su rischi di catastrofi che potrebbero causare più di 50 morti o più di 1 miliardo di dollari di danni. Se la legge protegge le persone che lavorano sui deepfake, lo stesso vale per gli ex dipendenti di X. Testimonianza dettagliata che Grok ha prodotto materiale sessualmente esplicito illegale a Business Insider lo scorso anno Gibson ha detto che potrebbero avere delle protezioni se condividono le informazioni con le autorità.
“È necessaria molta più protezione proprio per questo tipo di scenario, in cui un insider vede che ciò è prevedibile, sa che ciò accadrà e ha bisogno di un posto dove riferire ad entrambi per mantenere l’azienda responsabile e proteggere il pubblico”.
Collegamento alla fonte















