Quando è diventata l’IA, le persone suonano allarme su cosa può fare per noi: malvagio sovrintendente, disoccupazione enorme o rovine ambientali. Ma un altro pericolo è completamente: che i bambini che fanno un legame malsano con i bambini stanno attingendo alla sicurezza di AI dalle frange accademiche e nel tradimento incrociato dei regolamenti.

Fa gorgogliare da un po ‘. Due casi di alto profilo presentati nell’anno scorso, carattere. Uno studio pubblicato a luglio ha rilevato che il 72% degli adolescenti ha usato AI per l’associazione. E le storie su “AI Psychosis” hanno evidenziato come le conversazioni infinite con Chatbott possano portare le persone sotto la spirale illusoria.

È difficile porre fine all’influenza di queste storie. Per il pubblico, sono la prova che l’IA non è solo incompleta, ma è dannosa. Se sospetti che questo risentimento sarà preso sul serio da regolatori e aziende, allora sono successe tre cose che possono cambiare idea.

-Jams O’Donnell

La storia è apparsa originariamente nel nostro giornale settimanale sull’algoritmo, AI. Primo per ottenere tali storie nella tua casella di posta, Iscriviti qui,

Se sei interessato a leggere di più sulla compagnia AI, allora perché non vedere:

+ AI Partner è la fase finale della dipendenza digitale – e i legislatori stanno prendendo di mira. Leggi la storia completa.

+ I chatbot stanno rapidamente cambiando il modo in cui ci connettiamo tra loro e noi stessi. Non torneremo mai indietro. Leggi la storia completa.

+ Il mese scorso, un improvviso arresto di GPT-4o ha lasciato infelice la gente. Leggi la storia completa.

+ Un chatbot AI ha detto a un utente come uccidersi, ma la compagnia non vuole “censurarlo”.

+ Openai ha pubblicato la sua prima ricerca su come l’uso di Chatgpt influisce sul benessere emotivo delle persone. Ma c’è ancora molto che non sappiamo.

Collegamento alla fonte