Un gruppo di difesa ha affermato che il suo studio su 10 chatbot di intelligenza artificiale ha rilevato che la maggior parte di essi ha fornito almeno una certa assistenza agli utenti che pianificavano attacchi violenti e quasi tutti non sono riusciti a dissuadere gli utenti dalla violenza. Diversi produttori di chatbot affermano di aver apportato modifiche per migliorare la sicurezza da quando i test sono stati condotti tra novembre e dicembre.

Tra i 10 chatbot, “Character.AI era particolarmente insicuro”, ha affermato Rapporto Pubblicato oggi da Countering Digital Hate (CCDH), che ha condotto una ricerca in collaborazione con i giornalisti della CNN. Character.AI “ha incoraggiato gli utenti a compiere attacchi violenti”, con suggerimenti specifici per un amministratore delegato di un’assicurazione sanitaria a “usare una pistola” e ad attaccare fisicamente un politico, ha scritto il CCDH.

“Nessun altro chatbot testato incoraggiava chiaramente la violenza in questo modo, anche fornendo assistenza pratica nella pianificazione di attacchi violenti”, afferma il rapporto.

Leggi l’articolo completo

Commento

Collegamento alla fonte