Character.AI vieta ai minori di utilizzare i suoi chatbot a causa delle crescenti preoccupazioni sugli effetti delle conversazioni AI sui bambini. L’azienda deve affrontare molteplici cause legali sulla sicurezza dei bambini; Tra questi c’è la madre di un adolescente che ha affermato che i chatbot dell’azienda hanno spinto il figlio adolescente ad uccidersi.
Character Technologies, la società con sede a Menlo Park, in California, dietro Character.AI, ha dichiarato mercoledì che rimuoverà la possibilità per gli utenti sotto i 18 anni di impegnarsi in conversazioni aperte con personaggi AI. Le modifiche entreranno in vigore il 25 novembre e il limite giornaliero di due ore inizierà immediatamente. Character.AI ha aggiunto che sta lavorando a nuove funzionalità rivolte ai bambini, come la possibilità di creare video, storie e post con personaggi AI. L’azienda sta inoltre istituendo un laboratorio di sicurezza AI.
Character.AI ha affermato che implementerà funzioni di verifica dell’età per aiutare a identificare quali utenti hanno meno di 18 anni. Un numero crescente di piattaforme tecnologiche si sta rivolgendo a controlli dell’età per impedire ai bambini di accedere a strumenti non sicuri per loro. Ma questi sono imperfetti e molti bambini trovano il modo di superarli. Ad esempio, le scansioni facciali non possono sempre dire se qualcuno ha 17 o 18 anni. Ci sono anche preoccupazioni sulla privacy nel chiedere alle persone di caricare il proprio documento d’identità governativo.
Character.AI, un’app che consente agli utenti di creare personaggi personalizzabili o interagire con personaggi creati da altri, spazia da giochi fantasiosi a finti colloqui di lavoro. L’azienda afferma che i personaggi artificiali sono progettati per sentirsi “vivi” e “simili a quelli umani”.
“Immagina di parlare con personaggi chatbot super intelligenti e realistici che ti ascoltano, ti capiscono e si ricordano”, si legge nella descrizione dell’app su Google Play. “Vi incoraggiamo a superare i limiti di ciò che è possibile fare con questa tecnologia innovativa.”
I critici hanno accolto con favore la mossa, ma hanno detto che non era sufficiente e che avrebbe dovuto essere fatta prima. “Ci sono ancora molti dettagli che rimangono aperti”, ha affermato Meetali Jain, amministratore delegato del Technical Justice Law Project.
“Non hanno affrontato il modo in cui avrebbero reso operativa la verifica dell’età, come i loro metodi avrebbero garantito la protezione della privacy e non hanno affrontato il possibile impatto psicologico della disabilitazione improvvisa dell’accesso ai giovani utenti, date le dipendenze emotive create”, ha detto Jain. “Inoltre, questi cambiamenti non affrontano le principali caratteristiche progettuali che facilitano queste dipendenze emotive, non solo per i bambini ma anche per le persone di età superiore ai 18 anni.”
Secondo un recente studio di Common Sense Media, un gruppo che ricerca e sostiene un uso giudizioso degli schermi e dei media digitali, oltre il 70% degli adolescenti ha utilizzato assistenti IA e la metà li usa regolarmente.
Copyright © 2025 Associated Press. Tutti i diritti riservati.















