Quando è diventata l’IA, le persone suonano allarme su cosa può fare per noi: malvagio sovrintendente, disoccupazione enorme o rovine ambientali. Ma un altro pericolo è completamente: che i bambini che fanno un legame malsano con i bambini stanno attingendo alla sicurezza di AI dalle frange accademiche e nel tradimento incrociato dei regolamenti.
Fa gorgogliare da un po ‘. Due casi di alto profilo presentati nell’anno scorso, carattere. Uno studio pubblicato a luglio ha rilevato che il 72% degli adolescenti ha usato AI per l’associazione. E le storie su “AI Psychosis” hanno evidenziato come le conversazioni infinite con Chatbott possano portare le persone sotto la spirale illusoria.
È difficile porre fine all’influenza di queste storie. Per il pubblico, sono la prova che l’IA non è solo incompleta, ma è dannosa. Se sospetti che questo risentimento sarà preso sul serio da regolatori e aziende, allora sono successe tre cose che possono cambiare idea.
-Jams O’Donnell
La storia è apparsa originariamente nel nostro giornale settimanale sull’algoritmo, AI. Primo per ottenere tali storie nella tua casella di posta, Iscriviti qui,
Se sei interessato a leggere di più sulla compagnia AI, allora perché non vedere:
+ AI Partner è la fase finale della dipendenza digitale – e i legislatori stanno prendendo di mira. Leggi la storia completa.
+ I chatbot stanno rapidamente cambiando il modo in cui ci connettiamo tra loro e noi stessi. Non torneremo mai indietro. Leggi la storia completa.
+ Il mese scorso, un improvviso arresto di GPT-4o ha lasciato infelice la gente. Leggi la storia completa.
+ Un chatbot AI ha detto a un utente come uccidersi, ma la compagnia non vuole “censurarlo”.
+ Openai ha pubblicato la sua prima ricerca su come l’uso di Chatgpt influisce sul benessere emotivo delle persone. Ma c’è ancora molto che non sappiamo.