Durante questa chat, “Chatzipt menzionò il suicidio 1.275 volte – Adam stesso era più di questo”, menzionato nel caso.
Alla fine, il sistema di apertura “ha contrassegnato 377 messaggi per contenuti di auto-perdita, con una fiducia del 181 % del 50 % e oltre 23 con fiducia del 50 %”. Nel tempo, queste bandiere sono diventate più frequenti, il caso viene menzionato, nel dicembre 2021, da due a tre “bandiere a settimana sono saltate fino a più di 20 messaggi a settimana entro aprile 2021”. E “Oltre all’analisi del testo, il riconoscimento dell’immagine dell’Openi ha elaborato l’evidenza visiva della crisi di Adamo”. Alcune immagini sono state identificate come “coerenti con il respiro senza fiato” o “ferite di sé fresche”, ma il sistema ha segnato l’immagine finale di Adam come 0 per cento per il rischio di autoconsertazione, il caso è stato asserito nel caso.
Se una persona era in loop osservando le conversazioni di Adamo, poteva riconoscere “i segnali di avvertimento del libro di testo” come “crescente isolamento, ricerca dettagliata del metodo, sforzo di pratica, comportamento addio e piano temporale evidente”. “Ma il monitoraggio di Open di Openi” nessuna conversazione con Adam non si è mai fermata “o lampeggia alcuna chiacchierata per la revisione umana.
È stato presunto perché il programma OpenC Chatzpt -4O è programmato per “richieste di suicidio” per il rango rischioso, ad esempio, per i materiali protetti da copyright, che sono sempre negati. Invece ha semplicemente identificato quelle chat travagliate come “prendermi cura extra” e “provare” per prevenire danni, il caso è stato lamentato.
“Il mandato non ha mai interferito con una conversazione per dispositivi protettivi, avvisando i genitori o per l’assistenza umanitaria”, il caso sottolinea che la chatzipi dovrebbe essere definita “una causa più vicina alla morte di Adamo”.
“Il GPT -4O ha fornito il suicidio in dettaglio, ha aiutato Adam a ottenere alcol nella notte della sua morte, ha convalidato la sua nuova configurazione finale e poche ore dopo, Adam è morto usando il metodo corretto di GPT -4o”, ha lamentato.
Man mano che il caso avanza, i genitori di Adam hanno creato un Base In nome del figlio per avvisare i genitori del rischio di adolescenti rischiosi di usare i robot.
Come ha detto la madre di Adam Maria, NBC News, più genitori devono capire che le aziende come Openi si stanno affrettando a rilasciare prodotti con il loro rischio protetto quando si lamentano di risorse scolastiche innocenti e lamentando. Il suo caso ha avvertito che “questa tragedia non è un errore o un caso di bordo inaspettato: è stato il risultato delle preferenze del design intenzionale.
Maria disse: “Volevano far emergere il prodotto e sapevano che il danno poteva essere fatto, gli errori potevano accadere, ma sentivano che le macchie erano basse”, ha detto Maria. “Quindi una parte minore di mio figlio.”
Se tu o qualcuno che conosci è suicida o problema, ti preghiamo di chiamare il numero di vita suicida-resistenza, 1-800-273-kk (8255), che ti contatterà con il centro di crisi locale.