All’inizio di questo mese, l’agenzia ha presentato un consiglio sul benessere per affrontare queste preoccupazioni, anche se i critici hanno notato che il consiglio non includeva esperti di prevenzione del suicidio. OpenAI ha inoltre recentemente introdotto controlli per i genitori di bambini che utilizzano ChatGPT. La società ha affermato che sta sviluppando un sistema di previsione dell’età per identificare automaticamente i bambini utilizzando ChatGPT e imporre una serie più rigorosa di garanzie legate all’età.
Una conversazione rara ma potente
I dati condivisi lunedì sembrano far parte dello sforzo dell’azienda di dimostrare i progressi su questi temi, ma fanno anche luce su quanto profondamente i chatbot basati sull’intelligenza artificiale potrebbero avere un impatto sulla salute pubblica.
In un post sul blog sui dati recentemente rilasciati, OpenAI afferma che il tipo di conversazioni su ChatGPT che potrebbero sollevare preoccupazioni su “psicosi, mania o pensieri suicidi” sono “estremamente rari” e quindi difficili da quantificare. L’azienda stima che circa lo 0,07% degli utenti attivi e lo 0,01% dei messaggi in una determinata settimana indichino possibili sintomi di un’emergenza di salute mentale legata a psicosi o mania. Per quanto riguarda l’attaccamento emotivo, l’azienda stima che circa lo 0,15% degli utenti attivi e lo 0,03% dei messaggi in una determinata settimana indicano un livello potenzialmente elevato di attaccamento emotivo a ChatGPT.
OpenAI afferma inoltre che nella valutazione di oltre 1.000 conversazioni impegnative legate alla salute mentale, il nuovo modello GPT-5 è stato coerente al 92% con il comportamento desiderato, rispetto al 27% del precedente modello GPT-5 rilasciato il 15 agosto. OpenAI ha precedentemente riconosciuto che le sue misure di salvaguardia sono meno efficaci durante le conversazioni prolungate.
Inoltre, OpenAI ha affermato che sta aggiungendo nuove valutazioni per cercare di misurare alcuni dei problemi di salute mentale più gravi che gli utenti di ChatGPT devono affrontare. La società ha affermato che i test di sicurezza di base per i suoi modelli linguistici di intelligenza artificiale includeranno ora parametri di riferimento per la dipendenza psicologica e le emergenze di salute mentale non suicide.
Nonostante le continue preoccupazioni sulla salute mentale, il CEO di OpenAI Sam Altman annuncio 14 ottobre La società consentirà agli utenti adulti verificati di avere conversazioni erotiche con ChatGPT a partire da dicembre. La società ha allentato le restrizioni sui contenuti di ChatGPT a febbraio, ma poi le ha drasticamente inasprite dopo la causa di agosto. Altman ha spiegato che OpenAI ha reso ChatGPT “piuttosto restrittivo per garantire che stiamo attenti ai problemi di salute mentale”, ma ha riconosciuto che questo approccio ha reso il chatbot “meno utile/divertente per molti utenti che non hanno problemi di salute mentale”.
Se tu o qualcuno che conosci avete tendenze suicide o siete in difficoltà, chiamate il numero della Suicide Prevention Lifeline, 1-800-273-TALK (8255), che vi metterà in contatto con un centro di crisi locale.















