Martedì Dichiarazione Durante l’utilizzo dell’assistente di AI, la società soffre di utenti che soffrono del “caso straziante”, pianificando di implementare i controlli dei genitori per conversazioni sensibili alla salute mentale a Chatzpt e dei suoi modelli razionali simulati. Questi passaggi sono emersi dopo diversi rapporti in cui gli utenti hanno affermato che il chatzipt non ha interferito correttamente quando pubblicava pensieri suicidi o sperimentava episodi di salute mentale.
“Questo lavoro è già in corso, ma vogliamo visualizzare attivamente i nostri piani per i prossimi 120 giorni, quindi non devi aspettare che i lanci per vedere dove stiamo andando”, scrive in un post sul blog pubblicato martedì. “Il lavoro continuerà ben oltre questo periodo, ma stiamo facendo sforzi mirati per lanciare questi miglioramenti il più possibile quest’anno.”
I controlli dei genitori pianificati presentano la risposta più vista a Openi per preoccupazione per la protezione degli adolescenti sulla piattaforma. Nel prossimo mese, Opna afferma che i genitori saranno in grado di collegare i loro account chatzipt adolescenti (età minima 13) tramite e -mail invitando, controllando il modo in cui il modello AI reagisce alle impostazioni predefinite alle regole dell’età, che presenta per disabilitarli e quando rilevano la loro crisi adolescenziale.
I controlli dei genitori creano funzionalità esistenti come i promemoria delle app durante la lunga sessione che incoraggiano gli utenti a fare una pausa, che è stata lanciata per tutti gli utenti di Openi August.
I casi ad alimentazione cambiano protezione prompt
Una nuova iniziativa di sicurezza dell’Openi è arrivata dopo che diversi casi di alto profilo sono stati esaminati per la gestione degli utenti deboli di Chatzipt. Ad agosto, Matt e Maria Reno hanno intentato una causa contro l’Openenei, il loro figlio di 16 anni Adam è morto dopo il suicidio dopo il suicidio e sono morti per 377 messaggi contrassegnati dopo il suicidio. Secondo i documenti del tribunale, Chatzipt ha menzionato il suicidio 1.275 volte in una conversazione con Adam, più spesso di un adolescente. La scorsa settimana, Wall Street Journal Rapporto Un uomo di 56 anni che ha ucciso sua madre e se stessa dopo aver sfidato la chatzipt dopo aver rafforzato la sua confusione spettrale.
Per guidare questo miglioramento della protezione, secondo il post sul blog della società Opna “L’intelligenza artificiale sta lavorando con un consiglio specialistico per fare una prospettiva chiara e basata su prove su come sostenere il benessere delle persone. Il benessere dell’IA sta lavorando con il benessere del consiglio.