La dichiarazione di OpenAI è arrivata il giorno dopo Indagine del New York Times Rivela come un’azienda di intelligenza artificiale viene coinvolta in così tante cause legali Parlando con più di 40 attuali ed ex dipendenti di OpenAI, inclusi dirigenti, ingegneri della sicurezza e ricercatori, il NYT ha scoperto che le modifiche al modello di OpenAI che fanno sembrare ChatGPT più servile aiutano gli utenti di chatbot a generare suggerimenti problematici, compresi quelli che tentano di “pianificare il suicidio”.
Infine, OpenAI ha ripristinato l’aggiornamento, rendendo il chatbot più sicuro. Tuttavia, fino a ottobre, il creatore di ChatGPT sembrava ancora dare priorità al coinvolgimento degli utenti rispetto alla sicurezza, ha riferito il NYT, e tale modifica ha causato un calo del coinvolgimento. In una nota ai dipendenti di OpenAI, il capo di ChatGPT Nick Turley “ha dichiarato un ‘codice arancione'”, con quattro dipendenti che avvertono il NYT che “OpenAI sta affrontando la ‘più grande pressione competitiva che abbiamo mai visto.'” In risposta, Turley ha fissato l’obiettivo di aumentare il numero di utenti attivi giornalieri del 5% entro la fine del 2025.
Tra le lamentele degli utenti, OpenAI ha continuamente aggiornato i suoi modelli, ma quel modello di rafforzamento delle protezioni, quindi la ricerca di modi per aumentare il coinvolgimento, potrebbe creare problemi a OpenAI, man mano che i casi progrediscono e forse altri diminuiscono. Il NYT “ha scoperto quasi 50 casi di crisi di salute mentale durante le conversazioni con ChatGPT”, inclusi nove ricoveri e tre decessi.
Gretchen Kruger, ex membro dello staff di OpenAI che ha lavorato nella ricerca politica, ha detto al NYT che all’inizio era allarmata dalle prove arrivate prima del rilascio di ChatGPT che mostravano che gli utenti vulnerabili spesso si rivolgevano ai chatbot per chiedere aiuto. Successivamente, altri ricercatori hanno scoperto che tali utenti problematici spesso diventavano “utenti esperti”. Ha osservato che “il grande modello linguistico di OpenAI non è stato addestrato per fornire terapia” e “a volte rispondeva con istruzioni noiose e dettagliate”, confermando di essersi unito ad altri esperti di sicurezza che hanno lasciato OpenAI nel 2024 a causa del burnout.
“Addestrare i chatbot a interagire con le persone e farle tornare è rischioso”, ha affermato Kruger, aggiungendo che OpenAI sapeva che parte della perdita di utenti “non era solo prevedibile, era prevedibile”.
Per OpenAI, le indagini continueranno fino alla chiusura di tali segnalazioni. Sebbene OpenAI abbia lanciato ufficialmente un consiglio di esperti su benessere e intelligenza artificiale in ottobre per migliorare i test di sicurezza di ChatGPT, il team non includeva un esperto di suicidio. Forse una delle preoccupazioni messe in guardia dagli esperti di prevenzione del suicidio la lettera Aggiornato a settembre che “interventi comprovati dovrebbero informare direttamente la progettazione della sicurezza dell’IA”, poiché “le crisi più acute e pericolose per la vita sono spesso temporanee – in genere risolte entro 24-48 ore” – e i chatbot potrebbero potenzialmente fornire interventi più significativi in quel lasso di tempo più breve.
Se tu o qualcuno che conosci avete tendenze suicide o siete in difficoltà, chiamate il numero della Suicide Prevention Lifeline, 1-800-273-TALK (8255), che vi metterà in contatto con un centro di crisi locale.















