Ma nonostante le affermazioni a sostegno degli obiettivi sanitari di OpenAI, i termini di servizio dell’azienda sono chiari lo stato Che ChatGPT e altri servizi OpenAI “non sono destinati a essere utilizzati per diagnosticare o trattare alcuna condizione di salute”.

Sembra che la politica non cambierà con ChatGPT Health. OpenAI ha scritto nel suo annuncio: “L’assistenza sanitaria è progettata per supportare, non per sostituire. Non è intesa a diagnosticare o curare le malattie. Invece, ti aiuta a orientarti tra le domande quotidiane e a comprendere i modelli nel tempo, non solo i momenti di malattia, così puoi sentirti più informato e preparato per importanti conversazioni mediche. “

Un racconto ammonitore

Il rapporto SFGate sulla morte di Sam Nelson spiega perché mantenere tale dichiarazione di non responsabilità è legalmente importante. Secondo i registri delle chat esaminati dalla pubblicazione, Nelson ha chiesto a ChatGPT i dosaggi delle droghe ricreative nel novembre 2023. L’assistente AI inizialmente ha rifiutato e lo ha indirizzato agli operatori sanitari. Ma nel corso di 18 mesi di conversazione, le risposte di ChatGPT sarebbero cambiate. Alla fine, il chatbot gli dice qualcosa del tipo “Diavolo sì, passiamo alla modalità trippy” e gli consiglia di raddoppiare il suo sciroppo per la tosse. Sua madre lo ha trovato morto per overdose il giorno dopo aver iniziato il trattamento per la dipendenza.

Il caso di Nelson, tuttavia, non prevedeva un’analisi delle istruzioni sanitarie approvate dal medico come quella a cui si collegherà ChatGPT Health Il suo caso non è unico, poiché molte persone sono state ingannate dai chatbot che forniscono o incoraggiano la disinformazione Comportamento pericoloso, come abbiamo trattato in passato.

Questo perché i modelli linguistici dell’intelligenza artificiale possono facilmente fuorviare, generando informazioni credibili ma false in un modo che rende difficile per alcuni utenti distinguere i fatti dalla finzione. Servizi come ChatGPT che i modelli di intelligenza artificiale utilizzano correlazioni statistiche nei dati di addestramento (come testo di libri, trascrizioni di YouTube e siti Web) per generare risposte ragionevoli anziché risposte necessariamente accurate. Inoltre, l’output di ChatGPT può variare notevolmente a seconda di chi sta utilizzando il chatbot e di cosa è successo in precedenza nella cronologia chat dell’utente (comprese le note sulle chat precedenti).

Collegamento alla fonte