con lancio Del GPT-5, Openai ha chiaramente iniziato le persone che chiedono alle persone di usare i loro modelli per consigli sulla salute. All’evento di lancio, Altman ha accolto con favore il palcoscenico Felip Milon, un impiegato di Openi e sua moglie, Carolina Milan, che ha recentemente rivelato molte forme di cancro. Carolina, mentre parlava di chiedere chat per aiutare con la sua diagnosi, ha detto che aveva caricato copie dei suoi risultati di biopsia per tradurre il gergo medico e ha chiesto all’intelligenza artificiale di aiutare a decidere di far avanzare le radiazioni. I tre lo hanno definito un forte esempio di riduzione del divario della conoscenza tra medici e pazienti.

Con questo cambiamento nell’approccio, Openi sta andando in acqua pericolosa.

Per uno, sta usando prove che i medici possono beneficiare dell’IA come strumento clinico, come nello studio del Kenya, per suggerire che le persone senza background medico dovrebbero chiedere ai modelli AI di consigliare la propria salute. Il problema è che molte persone possono chiedere questo consiglio senza eseguirlo dal medico (ed è meno probabile che ora il chatbot raramente li indica).

In realtà, due giorni prima del lancio di GPT-5, Nome della medicina interna Pubblicato Un documento su una persona che ha smesso di mangiare sale e ha iniziato a ingerire la pericolosa quantità di bromuro dopo la conversazione con il chatgip. Hanno sviluppato avvelenamento da bromuro, che era scomparso in larga misura negli Stati Uniti dopo che la Food and Drug Administration aveva frenato l’uso del bromuro nelle droghe da banco negli anni ’70 e poi morì per trascorrere la settimana quasi in ospedale.

Allora cos’è tutto questo? In sostanza, si tratta di responsabilità. Quando le aziende di intelligenza artificiale si allontanano dalla promettente intelligenza generale per offrire assistenti umanitari in un campo specifico come l’assistenza sanitaria, si alza a vicenda, ma cosa accadrà al momento degli errori. Allo stato attuale, ci sono pochissimi segni che le aziende tecnologiche saranno rese responsabili del danno.

“Quando i medici ti danno consigli di terapia dannosi a causa di errori o pregiudizi, puoi fare causa per cattiva condotta e recuperare”, afferma Damian Williams, assistente professore di scienza dei dati e filosofia presso l’Università della Carolina del Nord Charlett.

“Quando Chatgpt ti dà consigli sulla terapia dannosa perché è addestrato su dati distorti o perché le” allucinazioni “risiedono nel funzionamento del sistema, qual è il tuo supporto?”

La storia è apparsa originariamente nel nostro giornale settimanale sull’algoritmo, AI. Primo per ottenere tali storie nella tua casella di posta, Iscriviti qui,

Collegamento alla fonte