rappresentante Cristina Hanschofsky I rapidi progressi nell’intelligenza artificiale stanno spingendo per la regolamentazione dei “chatbot associati” emotivamente reattivi, sostenendo regole più chiare per proteggere i minori e gli utenti vulnerabili.
Hunshofsky, un democratico dei parchi, ha recentemente presentato una proposta di legge (HB659) che impone obblighi di divulgazione, sicurezza e segnalazione per i sistemi di IA progettati per fornire compagnia di tipo umano.
L’attenzione di Bill è sulla prevenzione dell’autolesionismo. Se approvata, la misura proibirebbe agli operatori di consentire ai chatbot associati di comunicare con gli utenti a meno che le loro piattaforme non dispongano di protocolli basati sull’evidenza e pubblicati pubblicamente per rilevare e rispondere all’idea suicidaria.
Se un utente esprime un pensiero del genere, il sistema dovrebbe richiederlo 988 Suicidio e crisi ancora di salvezza. Ai chatbot sarà inoltre vietato parlare di suicidio o autolesionismo.
“Stiamo assistendo sempre più spesso a casi strazianti in cui i giovani formano profondi legami emotivi con compagni di intelligenza artificiale che alla fine li spingono all’autolesionismo”, ha affermato Hunshofsky in una nota.
“Questi chatbot associati confondono i confini al punto che le persone non riescono a distinguere tra esseri umani e intelligenza artificiale.”
Negli ultimi anni si sono verificati diversi casi in cui le interazioni con i chatbot hanno esacerbato l’idea suicidaria nei giovani tragicamente colpiti.
aveva 14 anni Sewell Setzer di Orlando, la cui madre lo disse Sviluppa un attaccamento intenso Un chatbot e la risposta del programma causano il deterioramento del suo stato mentale portandolo alla morte. Si è verificato un incidente simile California E Colorado.
L’HB 659, che prevede un’approvazione da parte del Senato, imporrebbe importanti divulgazioni che chiariscano che i chatbot associati sono generati dall’intelligenza artificiale, non umani, con avvertimenti che potrebbero essere inappropriati per alcuni minori.
Le piattaforme devono anche offrire opzioni di verifica dell’età anonima e standard.
Per gli utenti identificati come minori, l’HB 659 richiederebbe una divulgazione più chiara del fatto che l’utente sta interagendo con l’intelligenza artificiale, promemoria predefiniti per interrompere l’interazione continua almeno ogni tre ore e misure per impedire ai chatbot di creare materiale visivo sessualmente esplicito o incoraggiare comportamenti sessuali.
A partire dal 1 luglio 2027, gli operatori devono presentare rapporti annuali al Dipartimento degli affari legali che descrivono in dettaglio le loro piattaforme che emettono 988 referral e i loro sistemi di prevenzione del suicidio e di limitazione dei contenuti. Nei report non sarà consentito includere informazioni personali o identificative dell’utente.
Le violazioni saranno considerate atti ingiusti o ingannevoli ai sensi delle leggi sulla tutela dei consumatori della Florida e saranno soggette a controllo da parte del Procuratore Generale. Alle aziende verranno concessi 30 giorni per sanare la presunta violazione prima di adottare misure coercitive.
La mossa di Hunshofsky arriva in mezzo ai disaccordi tra la Florida e il presidente Donald Trump Amministrazione su come procedere al meglio con la regolamentazione dell’IA. DeSantis sì respingere Contrastando le affermazioni secondo cui un recente ordine esecutivo firmato da Trump avrebbe limitato la capacità della Florida di regolamentare l’intelligenza artificiale.
Gli ordini esecutivi non possono prevalere sugli Stati, ha affermato il governatore, aggiungendo che l’approccio della Florida alla questione è coerente con le linee guida federali, che secondo lui consentono la sicurezza dei bambini e la tutela dei consumatori.
Hunschofsky ha affermato che la sua misura consiste nel fissare dei limiti prima che il danno diventi diffuso.
“Mentre l’intelligenza artificiale continua ad avanzare a un ritmo rapido, dobbiamo garantire tutele ai giovani”, ha affermato. “Questo disegno di legge garantisce la sicurezza dei nostri figli garantendo che vi siano avvertimenti chiari, solide garanzie e una reale responsabilità per le aziende che immettono sul mercato questi chatbot associati”.















