veloce con gli americani Interessato Su come l’intelligenza artificiale potrebbe danneggiare la salute mentale, il lavoro e l’ambiente, domanda pubblica Perché la regolamentazione è in aumento. Se il Congresso resta paralizzato, solo gli Stati agiranno per tenere sotto controllo l’industria dell’IA. Secondo la Conferenza nazionale delle legislature statali, nel 2025, i legislatori statali hanno introdotto più di 1.000 progetti di legge sull’intelligenza artificiale e circa 40 stati hanno promulgato più di 100 leggi.
Gli sforzi per proteggere i bambini dai chatbot possono ispirare un raro consenso. Il 7 gennaio, Google e Character Technologies, una startup dietro il chatbot associato Character.AI, sistemarsi Diverse cause legali che coinvolgono famiglie di adolescenti che si sono suicidati dopo aver interagito con i robot. Solo il giorno dopo, il procuratore generale del Kentucky ha citato in giudizio Character Technologies, sostenendo che i chatbot spingono i bambini all’autolesionismo e ad altre forme di suicidio. OpenAI e MetaFace Molti abiti identici. Quest’anno sono previste più pile. Senza le leggi sull’intelligenza artificiale in vigore, resta da vedere come le leggi sulla responsabilità del prodotto e i principi della libertà di parola si applicheranno a queste nuove minacce. “La questione di cosa faranno i tribunali è una questione aperta”, afferma Grimmelman.
Mentre il contenzioso è in corso, gli stati si muoveranno per approvare leggi sulla protezione dei minori che siano esentate dal divieto proposto da Trump sulle leggi statali sull’IA. Il 9 gennaio, OpenAI ha firmato un accordo con un ex nemico, il gruppo di difesa dei bambini Common Sense Media. iniziativa elettorale La California ha qualcosa chiamato Safe for Parents and Kids AI Act, che stabilisce barriere sul modo in cui i chatbot interagiscono con i bambini. La misura propone di richiedere alle società di intelligenza artificiale di verificare l’età degli utenti, fornire controlli parentali e sottoporsi a controlli indipendenti sulla sicurezza dei bambini. Se approvato, potrebbe essere un modello per gli stati di tutto il paese che vogliono reprimere i chatbot.
ampiamente alimentato feedback A differenza dei data center, gli stati cercheranno anche di regolamentare le risorse necessarie per gestire l’intelligenza artificiale. Ciò significa fatture che richiedono ai data center di riferire sul proprio utilizzo di elettricità e acqua e di pagare le proprie bollette elettriche. Se l’intelligenza artificiale iniziasse a spostare posti di lavoro su larga scala, i gruppi di lavoro potrebbero cercare restrizioni sull’intelligenza artificiale in occupazioni specifiche. Alcuni stati preoccupati per i rischi catastrofici posti dall’intelligenza artificiale potrebbero approvare progetti di legge sulla sicurezza che rispecchiano l’SB 53 e il RAISE Act.
Nel frattempo, i giganti della tecnologia continueranno a usare le loro profonde tasche per schiacciare le normative sull’intelligenza artificiale. leadership futuraUn super PAC, sostenuto dal presidente di OpenAI Greg Brockman e dalla società di venture capital Andreessen Horowitz, tenterà di eleggere candidati che sostengano lo sviluppo illimitato dell’IA al Congresso e alle legislature statali. Seguiranno il manuale del settore delle criptovalute per la scelta dei partner e la scrittura delle regole. Per combattere questo, un super PAC finanziato da prima il pubblicoUn’organizzazione gestita da Carson e dall’ex membro del Congresso repubblicano Chris Stewart dello Utah sosterrà i candidati che sostengono la regolamentazione dell’IA. Potremmo anche vedere una manciata di candidati candidarsi Piattaforma populista anti-IA.
Nel 2026, il processo lento e disordinato della democrazia americana continuerà. E le regole scritte nelle capitali degli stati potrebbero dettare il modo in cui la tecnologia più dirompente della nostra generazione si evolverà oltre i confini dell’America negli anni a venire.















