OpenAI afferma che non consente l’utilizzo dei suoi LLM in questo modo
Quando è stato chiesto un commento sulle conversazioni sessuali dettagliate nel rapporto, un portavoce di OpenAI ha detto:
I minori meritano una forte protezione e abbiamo politiche rigorose a cui gli sviluppatori devono attenersi. Adottiamo misure coercitive contro gli sviluppatori quando stabiliamo che hanno violato la nostra politica, che vieta qualsiasi utilizzo dei nostri servizi per lo sfruttamento, la messa in pericolo o la sessualizzazione di chiunque abbia meno di 18 anni. Queste regole si applicano a ogni sviluppatore che utilizza la nostra API e gestiamo classificatori per garantire che i nostri servizi non vengano utilizzati per danneggiare i minori.
È interessante notare che il rappresentante di OpenAI ci ha detto che OpenAI non ha alcuna relazione diretta con Alilo e non ha rilevato l’attività API dal dominio di Alilo. OpenAI sta indagando sull’azienda di giocattoli e se sta indirizzando il traffico sull’API di OpenAI, ha affermato il rappresentante.
Allilo non ha risposto alla richiesta di commento di Ars prima della pubblicazione.
Le aziende che utilizzano la tecnologia OpenAI e lanciano prodotti rivolti ai bambini devono rispettare il Children’s Online Privacy Protection Act (COPPA) quando pertinente, così come altre leggi pertinenti sulla protezione dei minori, sulla sicurezza e sulla privacy e ottenere il consenso dei genitori, ha affermato un rappresentante di OpenAI.
Abbiamo già visto come OpenAI gestisce le aziende di giocattoli che infrangono le sue regole.
Il mese scorso, PIRG ha pubblicato il suo rapporto Trouble in Toyland 2025 (PDF), che descriveva nel dettaglio le conversazioni legate al sesso che i suoi tester hanno potuto avere con l’orsacchiotto Kuma. Il giorno dopo, OpenAI ha sospeso FollowToy per aver violato la sua policy (i termini della sospensione non sono stati resi noti) e temporaneamente esaurito.
Il giocattolo è di nuovo in vendita e PIRG riferisce oggi che Kumma non insegna più ai bambini come accendere i fiammiferi o come fare giochi di fantasia.
Ma anche le aziende di giocattoli che cercano di seguire le regole dei chatbot possono mettere a rischio i bambini.















