La Cina ha elaborato regole rivoluzionarie per impedire ai chatbot basati sull’intelligenza artificiale di manipolare emotivamente gli utenti, comprese quelle che potrebbero diventare politiche più severe a livello globale volte a prevenire il suicidio, l’autolesionismo e la violenza assistiti dall’intelligenza artificiale.

Amministrazione del cyberspazio cinese Raccomandato Le regole del sabato. Se finalizzati, si applicheranno a qualsiasi prodotto o servizio di intelligenza artificiale pubblicamente disponibile in Cina che utilizzi testo, immagini, audio, video o “altri mezzi” per simulare la conversazione umana. Winston Ma, professore associato presso la NYU School of Law, ha detto alla CNBC Che “le regole proposte segnerebbero il primo tentativo al mondo di regolamentare l’intelligenza artificiale con caratteristiche umane o antropomorfe” mentre l’uso di robot associati sta crescendo in tutto il mondo.

La consapevolezza del problema sta aumentando

Nel 2025, i ricercatori contrassegnato I principali danni provocati dai compagni di intelligenza artificiale includono la promozione dell’autolesionismo, della violenza e del terrorismo. Inoltre, i chatbot hanno condiviso informazioni dannose, fatto avance sessuali indesiderate, incoraggiato l’abuso di sostanze e abusato verbalmente degli utenti. Alcuni psichiatri sono sempre più pronti a collegare la psicosi all’uso dei chatbot, riferisce il Wall Street Journal Rapportod Questo fine settimana, quando il chatbot più famoso al mondo, ChatGPT, ha fatto causa per pubblicazioni legate al suicidio infantile e all’omicidio-suicidio.

La Cina si sta ora muovendo per eliminare la minaccia più estrema. Le norme proposte richiederebbero, ad esempio, che una persona intervenga quando si fa riferimento al suicidio. Le regole stabiliscono inoltre che tutti gli utenti minorenni e adulti devono fornire le informazioni di contatto di un genitore al momento della registrazione: il genitore verrà avvisato se si parla di suicidio o autolesionismo.

In generale, ai chatbot sarà vietato creare contenuti che incoraggino il suicidio, l’autolesionismo o la violenza, nonché tentare di manipolare emotivamente un utente, ad esempio facendo false promesse. Ai chatbot sarà inoltre vietato incitare all’oscenità, al gioco d’azzardo o alla criminalità, nonché insultare o umiliare gli utenti. Sono vietate anche le cosiddette “trappole emotive”: ai chatbot verrà inoltre impedito di indurre gli utenti a prendere “decisioni irrazionali”, indica una traduzione delle regole.

Collegamento alla fonte