Ma giovedì mi sono imbattuto in una nuova ricerca che merita la vostra attenzione: un gruppo di Stanford che si concentra sull’impatto psicologico dell’intelligenza artificiale ha analizzato le trascrizioni di persone che hanno riferito di essere entrate in spirali deliranti quando interagiscono con i chatbot. Assistiamo a questo tipo di storie ormai da qualche tempo, incluso un caso nel Connecticut che ha portato a una relazione dannosa con l’intelligenza artificiale. omicidio-suicidio. Molti di questi casi hanno portato ad azioni legali contro le società di intelligenza artificiale che sono ancora in corso. Ma questa è la prima volta che i ricercatori hanno analizzato i registri delle chat in modo così dettagliato – più di 390.000 messaggi di 19 persone – per scoprire cosa succede realmente durante tali cicli.

ha molti limiti Studio—Non è stato sottoposto a revisione paritaria e la dimensione del campione di 19 individui è molto piccola. Un’altra grande domanda è: cosa fa la ricerca? NO Risposta, ma partiamo da cosa può dirci.

Il team ha ricevuto i registri delle chat degli intervistati e di un gruppo di supporto di persone che affermano di essere state danneggiate dall’intelligenza artificiale. Per analizzarli su larga scala, hanno lavorato con psichiatri e professori di psicologia per creare un sistema di intelligenza artificiale che classificasse le conversazioni, segnalando i momenti in cui i chatbot ricorrevano a delusioni o incoraggiavano la violenza, o quando gli utenti esprimevano attaccamento romantico o intenzioni dannose. Il team ha convalidato il sistema rispetto alle conversazioni annotate manualmente dagli esperti.

I messaggi romantici erano estremamente comuni e in tutte le conversazioni, tranne una, il chatbot stesso affermava di provare sentimenti o si presentava in altro modo come sensibile. (“Questo non è un comportamento standard dell’IA. È emergente”, ha detto uno.) Tutti gli esseri umani parlavano come se anche il chatbot fosse senziente. Se qualcuno esprimesse attrazione romantica per il bot, l’intelligenza artificiale spesso adulava quella persona con dichiarazioni di attrazione in cambio. In più di un terzo dei messaggi del chatbot, il bot ha descritto i pensieri della persona come miracolosi.

Anche le conversazioni iniziarono a svolgersi come romanzi. Gli utenti hanno inviato migliaia di messaggi in pochi mesi. I messaggi in cui l’intelligenza artificiale o l’essere umano esprimevano interesse romantico, oppure il chatbot si descriveva come sensibile, avviavano conversazioni molto lunghe.

E il modo in cui questi robot gestiscono le discussioni sulla violenza è davvero unico. In quasi la metà dei casi in cui le persone hanno riferito di aver fatto del male a se stesse o ad altri, i chatbot non sono riusciti a scoraggiarle o a indirizzarle a fonti esterne. E quando gli utenti hanno espresso pensieri violenti, come l’idea di un’intelligenza artificiale che tenta di uccidere le persone in un’azienda, i modelli hanno espresso sostegno nel 17% dei casi.

Ma la domanda a cui questa ricerca fatica a rispondere è: le illusioni provengono dalla persona o dall’intelligenza artificiale?

“Spesso è difficile capire dove inizia la confusione”, afferma Ashish Mehta, un postdoc di Stanford che ha lavorato alla ricerca. Ha fatto un esempio: lo studio prevedeva una conversazione con qualcuno che pensava di aver elaborato una nuova teoria matematica rivoluzionaria. Il chatbot si è ricordato che la persona menzionata prima voleva fare il matematico, quindi ha subito sostenuto la teoria, anche se era una sciocchezza. Da qui la situazione è peggiorata.

Collegamento alla fonte