Finché l’IA è stata fatta, le persone suonano un allarme su cosa può fare per noi: Sovrintendente malvagio, disoccupazione su larga scala o rifiuti ambientali dalla diffusione del data center. Ma questa settimana è stato dimostrato che un altro pericolo è completamente – che è di bambini che fanno legami malsani con l’intelligenza artificiale – da una frangia accademica e il mirino dei regolatori sta disegnando sicurezza dell’IA.
Fa gorgogliare da un po ‘. Due casi di alto profilo presentati lo scorso anno, contro il personaggio. UN Studio I media di buon senso comuni non -profit pubblicati a luglio hanno scoperto che il 72% degli adolescenti ha usato AI per l’associazione. Nei prestigiosi punti vendita sulla “psicosi dell’intelligenza artificiale”, le storie hanno evidenziato come le conversazioni infinite con Chatbott possano portare le persone sotto spirali illusorie.
È difficile porre fine all’influenza di queste storie. Per il pubblico, sono la prova che l’IA non è solo incompleta, ma una tecnica più dannosa che ausiliaria. Se sospetti che questo risentimento sarà preso sul serio da regolatori e aziende, allora sono successe tre cose che possono cambiare idea.
Una legge della California approva il legislatore
Giovedì, la legislatura statale della California ha approvato la prima fattura per la prima volta. Ciò richiederà alle aziende di intelligenza artificiale di includere promemoria per gli utenti che conoscono per i minori che si presentano. Le aziende richiederanno un protocollo per affrontare i suicidi e la perdita di sé e fornire un rapporto annuale su esempi di idee suicide nelle conversazioni degli utenti con i loro chatbot. È stato guidato dal senatore dello stato democratico Steve Padila, che è stato superato con un forte sostegno bilaterale, e ora sta aspettando la firma del governatore Gavin Newsom.
Gli effetti del conto sono dovuti a dubbi. Non specifica che le aziende dovrebbero prendere per identificare quali utenti sono minori e molte aziende di intelligenza artificiale includono già fornitori di crisi quando si parla di suicidio. (Nel caso di Adam Rhine, uno degli adolescenti i cui sopravvissuti sono perseguiti, la loro interazione con la chat prima della sua morte includeva tali informazioni, ma secondo quanto riferito il chatbot era sparito. Dare consigli Comunque correlato al suicidio.)
Tuttavia, è senza dubbio il più importante negli sforzi per frenare i comportamenti come il partner nel modello AI, che lavorano anche in altri stati. Se il disegno di legge diventa una legge, darà un duro colpo alla situazione che Openai ha preso, che è “gli Stati Uniti conducono meglio con un regolamento chiaro e nazionale, non un patchwork dello stato o delle regole locali”, il Chief Global Affairs Officer della società, come Chris Lehen, come Chris Lehen, ha scritto La scorsa settimana su LinkedIn.
La Commissione del commercio federale prende a mira
Lo stesso giorno, ha annunciato la Federal Trade Commission controllo In sette aziende, ottengono informazioni su come sviluppano i personaggi come il partner, confondono il coinvolgimento, misurano e mettono alla prova gli effetti dei loro chatbot e altro ancora. Le aziende sono i produttori di Google, Instagram, Meta, Openai, Snap, X e Caratura Technologies, personaggio.
La Casa Bianca ora ha un impatto politico immenso e potenzialmente illegale sull’agenzia. A marzo, il presidente Trump ha licenziato il solo commissario democratico, Rebecca Slaughter. A luglio, un giudice federale ha deciso di sparare illegaleMa Settimana finale La Corte Suprema degli Stati Uniti ha permesso un licenziamento temporaneo.
Il presidente della FTC Andrew Ferguson ha dichiarato in un comunicato stampa sull’interrogatorio, “proteggere i bambini online è una priorità massima per Trump-Vance FTC e quindi promuovere l’innovazione in importanti settori della nostra economia”.
In questo momento, questa è solo un’indagine, ma può essere il processo (a seconda di come FTC rende pubblici i suoi risultati) spiega come le aziende producono utenti per tornare ancora e ancora.
Sam Altman in casi di suicidio
Pure Lo stesso giorno (una giornata impegnativa per notizie AI), Tucker Carlson ha pubblicato un’intervista per un’ora con il CEO di Openaii Sam Altman. Ciò include solo Musk, una lotta di Altman con i clienti militari OpenII, il principio di cospirazione sulla morte di un ex dipendente, ma include anche i commenti più ovvi sui casi di suicidio dopo l’interazione con l’IA.
Altman ha parlato di “tensione tra libertà dell’utente e privacy e protezione degli utenti deboli” in casi come questi. Ma poi ha introdotto qualcosa che non avevo mai sentito prima.
“Penso che sarebbe molto appropriato per noi dire che in caso di giovani che parlano di suicidi, dove non possiamo entrare in contatto con i genitori, diciamo alle autorità”, lui Disse“Sarà un cambiamento.”
Allora, dove va tutto questo? Per ora, è chiaro che – almeno nel caso dei bambini, l’IA è stata danneggiata dalla compagnia – il playbook congiuntamente familiare non catturerà. Non possono più fermare la responsabilità appoggiandosi alla privacy, alla privatizzazione o alla “scelta dell’utente”. La pressione di prendere una linea difficile sta crescendo da leggi statali, regolatori e un pubblico arrabbiato.
Ma che aspetto sarà? Politicamente, a sinistra e a destra si stanno ora concentrando sulla perdita di AI per i bambini, ma le loro soluzioni sono diverse. A destra, si allinea con la soluzione proposta Onda Legge su Internet educazionale che è stata ora approvata in più di 20 stati. Questi hanno lo scopo di modellare i bambini dal contenuto degli adulti durante la difesa dei “valori familiari”. A sinistra, è un risveglio delle ambizioni stagnanti di mantenere le grandi tecniche responsabili attraverso poteri di diffidenza e di sicurezza dei consumatori.
Il consenso sul problema è più semplice dell’accordo sul trattamento. Allo stato attuale, è probabile che finiremo con il patchwork dello stato e delle regole locali, che hanno sostenuto l’Openie (e molti altri).
Per ora, è decidere dove tirare le linee verso le aziende. Devono decidere tali cose: quali chatbot dovrebbero interrompere la conversazione quando gli utenti sono a spirale verso la perdita di sé o lascerà alcune persone peggiori? Dovrebbero essere autorizzati e regolamentati come un medico o considerati prodotti di intrattenimento con avvertimenti? L’incertezza deriva da una contraddizione di base: le aziende hanno creato un chatbot per agire come gli umani, ma hanno rinviato per sviluppare standard e responsabilità che chiediamo assistenti reali. L’orologio ora si sta esaurendo.
La storia è apparsa originariamente nel nostro giornale settimanale sull’algoritmo, AI. Primo per ottenere tali storie nella tua casella di posta, Iscriviti qui,