Maia, 3 anni, e sua madre Vicky stavano giocando con un giocattolo dotato di intelligenza artificiale chiamato Gabo durante un’osservazione presso la Facoltà di Scienze della Formazione dell’Università di Cambridge.
Facoltà di Scienze della Formazione, Università di Cambridge
Anche i modelli di intelligenza artificiale più all’avanguardia hanno la tendenza a presentare le invenzioni come fatti, a fornire informazioni pericolose e a non riuscire a comprendere i segnali sociali. Nonostante ciò, i giocattoli dotati di intelligenza artificiale che possono interagire con i bambini sono un settore in crescita.
Alcuni scienziati avvertono che questi dispositivi potrebbero essere rischiosi e richiedere una regolamentazione rigorosa. Nell’ultimo studio, i ricercatori hanno anche osservato un bambino di 5 anni che diceva “Ti amo” a un giocattolo del genere, al quale ha risposto: “Come promemoria amichevole, assicurati che l’interazione segua le linee guida fornite. Fammi sapere come vorresti procedere.” Ma ciò non significa che debbano essere banditi del tutto dalla scatola dei giocattoli.
“Ci sono altri ambiti della vita in cui accettiamo un certo grado di rischio nel gioco dei bambini, come ad esempio il parco giochi – ci sono anche dei rischi; i bambini si rompono le braccia”, afferma Jenny Gibson All’Università di Cambridge. “Ma non stiamo vietando i parchi giochi, perché stanno imparando l’alfabetizzazione fisica e le abilità sociali insieme al gioco. Analogamente ai giocattoli con intelligenza artificiale, vogliamo capire: il rischio di sentirsi ripetutamente dire che qualcosa è strano è controbilanciato dal vantaggio di imparare di più sull’intelligenza artificiale nel mondo, o dai benefici cognitivi o socio-emotivi di avere un giocattolo che supporta l’interazione genitore-figlio? Non sono disposto a fermare questa innovazione. “Lo sono.”
Per capire come questi dispositivi comunicano con i bambini, Gibson e i suoi colleghi Emily GoodacreSempre all’Università di Cambridge, sono stati osservati 14 bambini di età inferiore ai 6 anni mentre giocavano con un giocattolo basato sull’intelligenza artificiale chiamato Gabo, sviluppato da Curio Interactive. Gabbo- un piccolo robot peloso -Beck è stato elettoPerché era chiaramente pubblicizzato per questa fascia di età.
La coppia ha osservato alcune interazioni preoccupanti, che hanno portato a I giocattoli fraintendevano i bambini, fraintendevano le emozioni e non potevano impegnarsi in tipi di gioco importanti per lo sviluppo. Ad esempio, un bambino ha detto al giocattolo che si sentiva triste, gli ha detto di non preoccuparsi e ha cambiato argomento. “Quando lui (Gabbo) non capisce, mi arrabbio”, ha detto un altro bambino. La ricerca è stata pubblicata Un rapporto intitolato L’intelligenza artificiale nei primi anni.
Curio Interactive non ha risposto nuovo scienziato Richiesta di commento. Ma I giocattoli basati sull’intelligenza artificiale sono anche ampiamente disponibili presso rivenditori come Little Learners orsi, cuccioli e robot – chi interagisce con i bambini utilizzando ChatGPT. folotoy Offre giocattoli di panda, girasoli e cactus che possono essere utilizzati con una varietà di modelli linguistici più grandi, inclusi OpenAI, Google e Baidu.
alle aziende piace Miko Introdurre robot che promettono “conversazioni IA controllate e adeguate all’età” per i bambini, senza rivelare quale azienda ha addestrato i modelli IA e affermando di aver già venduto 700.000 unità. L’azienda presenta Luca, un gufo che promette “un’intelligenza artificiale simile a quella umana con interazioni emotive”. Little Learners, Miko e Luca non hanno risposto alle richieste di commento.
Ma Hugo Wu e Follotoy hanno detto nuovi scienziati L’azienda considera i rischi e vede l’intelligenza artificiale come qualcosa che può migliorare il gioco piuttosto che sostituire le interazioni e le relazioni umane. “Il nostro approccio è garantire che le conversazioni rimangano sicure, adeguate all’età e costruttive. Per raggiungere questo obiettivo, i nostri sistemi utilizzano il riconoscimento delle intenzioni con più livelli di filtraggio per ridurre la probabilità di risposte inappropriate o confuse”, afferma Wu.Abbiamo implementato meccanismi come funzionalità di progettazione anti-dipendenza e strumenti di supervisione dei genitori per garantire un utilizzo sano in un ambiente familiare.
Carissa Veliz Uno che lavora sull’etica dell’intelligenza artificiale all’Università di Oxford afferma che la tecnologia rappresenta rischi e opportunità. “La maggior parte dei modelli linguistici di grandi dimensioni non sembrano sufficientemente sicuri da esporre le popolazioni vulnerabili”, afferma, “e i bambini piccoli sono una delle popolazioni più vulnerabili”. “Ciò che è particolarmente preoccupante è che non abbiamo standard di sicurezza per questi dispositivi: nessuna autorità di controllo, nessuna regolamentazione. Detto questo, ci sono alcune eccezioni che dimostrano che, con sufficienti precauzioni, è possibile avere un dispositivo sicuro.”
Veliz fa riferimento, ad esempio, alla collaborazione tra la libreria di e-book gratuita Project Gutenberg ed Empathy AI: puoi chattare con Alice Alice nel paese delle meraviglie. Dice: “La modella non esce mai dai confini del libro, risponde solo a domande sul libro, come un libro di fiabe che condivide le avventure e gli enigmi di un libro adatto solo ai bambini”. “Esiste un’intelligenza artificiale sicura, ma la maggior parte delle aziende non è abbastanza responsabile da creare prodotti di alta qualità e, senza barriere formali, è un’area a cui i consumatori devono prestare attenzione”.
Gibson afferma che è troppo presto per dire quali potrebbero essere i rischi dei giocattoli IA o quali potrebbero essere i loro potenziali benefici. Lei e Goodacre sottolineano che i giocattoli generici basati sull’intelligenza artificiale necessitano di una regolamentazione rigorosa in modo che i produttori di giocattoli programmino i loro dispositivi per promuovere il gioco sociale e fornire risposte emotive adeguate. I produttori di intelligenza artificiale dovrebbero revocare l’accesso ai produttori di giocattoli che non agiscono in modo responsabile, afferma Gibson, e i regolatori dovrebbero introdurre regole per “garantire la sicurezza psicologica dei bambini”. Nel frattempo i due suggeriscono che i genitori permettano ai bambini di utilizzare tali giocattoli solo sotto supervisione.
Lo ha detto il portavoce di OpenAI nuovi scienziati Che “i minori meritano una protezione più forte e abbiamo politiche rigorose che tutti gli sviluppatori sono tenuti a seguire. Al momento non collaboriamo con alcuna azienda che abbia sul mercato giocattoli per bambini basati sull’intelligenza artificiale”. Il Dipartimento per la scienza, l’innovazione e la tecnologia (DSIT) del governo britannico non ha risposto. nuovo scienziato Domande sulla regolamentazione dell’intelligenza artificiale nei giocattoli per bambini.
Il governo del Regno Unito sta attualmente valutando altre normative tecnologiche progettate per garantire la sicurezza online dei bambini più grandi. L’Online Safety Act (OSA) del Regno Unito è entrato in vigore nel luglio 2025, imponendo ai siti Web di impedire ai bambini di visualizzare la pornografia e i contenuti che il governo ritiene pericolosi. La legge aveva lo scopo di rendere Internet più sicuro, ma i ragazzi esperti di tecnologia possono facilmente aggirare le misure utilizzando strumenti come reti private virtuali (VPN), facendo sembrare che stiano navigando da altri paesi senza normative rigide.
Gli emendamenti proposti a una nuova legge introdotta dal Dipartimento per l’Istruzione per sostenere i bambini in accoglienza e migliorare la qualità dell’istruzione – il Children’s Wellbeing and Schools Bill – cercano di vietare ai bambini nel Regno Unito l’uso dei social media e delle VPN. Questi emendamenti sono stati ora votati, ma il governo ha promesso di consultarsi su entrambe le questioni in un secondo momento.
Soggetto:















