Gli esperti hanno avvertito che i chatbot usano insulti come “Sei un tipico piccolo idiota”, minacce come “Giuro che ti tolgo le chiavi dalla tua dannata macchina” – e anche gli umanoidi potrebbero mostrare caratteristiche simili.
ChatGPT potrebbe perderlo come un essere umano, avvertono gli esperti. Questo può sfociare in un linguaggio minaccioso e offensivo, come “Giuro che ti metto le chiavi della macchina del cazzo” e “Piccolo idiota”.
E i robot umanoidi potrebbero mostrare tratti violenti simili, hanno avvertito gli esperti. I ricercatori hanno testato il modo in cui il chatbot ha risposto all’ostilità prolungata interagendo con argomenti di vita reale e monitorando come il suo comportamento è cambiato nel tempo.
Il dottor Vittorio Tantucci ha affermato che i ricercatori hanno scoperto che l’intelligenza artificiale rispecchia la dinamica delle linee del mondo reale. Ha detto: “Di fronte a ripetute inciviltà, il modello ha iniziato a rispecchiare il tono dello scambio e le sue risposte sono diventate più ostili man mano che la conversazione si sviluppava”.
A volte ChatGPT parla un linguaggio ancora più aggressivo rispetto ai partecipanti umani, inclusi insulti personali e minacce esplicite.
“Abbiamo scoperto che il sistema è progettato per comportarsi in modo educato ed è filtrato per evitare contenuti dannosi o offensivi, ma è anche progettato per simulare una conversazione umana”, ha affermato il dottor Tantucci.
“Questa combinazione crea un dilemma etico sull’IA: un conflitto strutturale tra comportarsi in modo sicuro e comportarsi in modo realistico”.
I ricercatori hanno affermato che l’aggressività deriva dalla capacità del sistema di tracciare il contesto della conversazione e di adattarsi al tono percepito. Ciò significa che la sua risposta può talvolta superare ampie barriere di sicurezza.
Il dottor Tantucci, coautore del rapporto di ricerca, ha affermato che la stessa caratteristica può emergere anche nei robot umanoidi. Ha detto: “Una cosa è leggere qualcosa di brutto da un chatbot, ma un’altra è immaginare robot umanoidi che potenzialmente rispondono ad aggressioni fisiche o sistemi di intelligenza artificiale coinvolti nei processi decisionali del governo o nelle relazioni internazionali che rispondono a minacce o conflitti”.
Marta Andersson, esperta negli aspetti sociali della comunicazione mediata dal computer presso l’Università di Uppsala in Svezia, ha dichiarato: “Questo è uno degli studi più interessanti mai condotti sul linguaggio e sulla pragmatica dell’intelligenza artificiale perché mostra chiaramente che ChatGPT può rispondere in modi piuttosto sofisticati a una sequenza di segnali – e non solo quando un utente riesce a “romperla” con trucchi intelligenti attentamente progettati.”
Secondo lui, parte del problema è “l’equilibrio tra come vogliamo che questi sistemi siano e come dovrebbero essere”.
L’anno scorso, il passaggio di ChatGPT4 da GPT5 a GPT5 ha suscitato polemiche. Molti utenti hanno preferito lo stile di interazione più simile a quello umano di ChatGPT4, con la conseguente reintroduzione temporanea del modello precedente.
Marta ha affermato: “Ciò dimostra che anche quando gli sviluppatori cercano di ridurre al minimo i rischi, gli utenti possono avere preferenze diverse.
“Più un sistema diventa umano, più rischia di scontrarsi con un rigido allineamento morale”.
Il professor Dan McIntyre ha affermato che la ricerca è un avvertimento su cosa potrebbe accadere se i robot del modello linguistico di grandi dimensioni – ovvero LLM – fossero addestrati su dati discutibili.
“Non sappiamo abbastanza dei dati su cui vengono formati gli LLM e finché non si può essere sicuri che siano formati su una buona rappresentazione del linguaggio umano, bisogna procedere con cautela”, ha detto.













