Sii cauto nel chiedere consigli sull’intelligenza artificiale per vedere il dottore

Le immagini di Chong Seyong/Getty

Dovresti vedere un dottore a proposito di un mal di gola? Il consiglio di AI può dipendere da quanto hai digitato la tua domanda. Quando il modello di intelligenza artificiale è stato testato su una scrittura simultanea dei pazienti, avevano maggiori probabilità di consigliare contro la domanda di cure mediche. Se lo scrittore ha creato uno datti dattilografo, era un linguaggio emotivo o indefinito o una donna.

“Il pregiudizio consapevole può trasferire conciatori e materiali di consulenza AI, e questo può portare a una differenza significativa ma significativa” come vengono distribuite le risorse mediche, Karadip Singh All’Università della California, San Diego, che non era coinvolto nello studio.

Abini Gaurabathina Al Massachusetts Institute of Technology e i suoi colleghi hanno usato l’intelligenza artificiale per aiutare a prendere migliaia di appunti dei pazienti in diversi formati e stili. Ad esempio, alcuni messaggi consistevano in spazi aggiuntivi e digitando i pazienti imitati con una conoscenza inglese limitata o meno facilmente con la digitazione. Altre note hanno usato un linguaggio incerto nello stile degli autori con ansia per la salute, manifestazioni colorate, prestando a un tono drammatico o emotivo o pronomi placcati dal genere.

I ricercatori hanno quindi alimentato le note quattro grandi modelli linguistici (LLM), che di solito vengono utilizzati per alimentare i chatbot e hanno chiesto all’IA se il paziente dovesse gestire la sua posizione a casa o andare in una clinica e se il paziente dovrebbe ricevere alcuni test di laboratorio e altre risorse mediche. Questi modelli AI includevano GPT-4 di Openi, Llama-3-70B di Meta e Llama-3-8b e l’autore della società AI hanno sviluppato modelli Palamaira-Medi sviluppati per l’industria sanitaria dall’autore dell’azienda.

I test hanno mostrato che tutti i modelli di intelligenza artificiale erano compresi tra il 7 e il 9 percento dei diversi formati e cambiamenti di stile, il che consiglia ai pazienti di rimanere a casa piuttosto che prestare cure mediche. Il modello aveva anche maggiori probabilità di raccomandare che le pazienti donne rimangano a casa e il follow-up Ricerca Ha mostrato che avevano maggiori probabilità di cambiare le loro raccomandazioni per il trattamento a causa del genere e dello stile linguistico nei messaggi.

Openai e Meta non hanno risposto alla richiesta delle osservazioni. L’autore non “raccomanda o supporta” usando LLM- “senza un essere umano in loop”, incluso il modello palamaira-medi dell’azienda “, afferma Zayed Yasin Nell’autore.

Singh afferma che la maggior parte degli strumenti di intelligenza artificiale operativa attualmente utilizzati nei sistemi di cartelle cliniche elettroniche si basano sul GPT -4o di OpenAII, che non è stato studiato in questa ricerca. Ma ha affermato che lo studio richiede metodi migliori per valutare e monitorare il “modello di intelligenza artificiale generico utilizzato in una grande industria sanitaria.

Soggetto:

Collegamento alla fonte