I chatbot di AI sono spesso pieni di fiducia, ma non hanno sempre conoscenze accurate. Un nuovo studio dell’Università di Carnegie Melon ha scoperto che modelli di grandi linguaggio come chiacchiere, bardo/gemelli, sonetto e haiku riducono continuamente le loro prestazioni anche dopo aver commesso errori. Gli umani hanno testato con il modello, adattando la loro fiducia verso il basso dopo scarsi risultati, ma i sistemi AI sono diventati ancora più sicuri. In un test in stile pensionante, Mithun ha identificato correttamente meno di uno dei venti schizzi, ma si ritiene che abbia dato la risposta corretta a quattordici. La ricerca condotta per due anni con frequenti modelli aggiornati aumenta le preoccupazioni sulla mancanza di autocoscienza dell’IA e sui rischi di fare affidamento sulla certezza inappropriata. Gli esperti raccomandano agli utenti di valutare seriamente le reazioni di chatbot e gli sviluppatori per equipaggiare l’IA con una migliore introspezione.