Domenica, Google muoversi Dopo un’indagine del Guardian, alcuni dei suoi riepiloghi sanitari sull’intelligenza artificiale hanno rilevato che le persone sono messe a rischio da informazioni false e fuorvianti. Il giornale è stato rimosso dopo aver scoperto che la funzionalità di intelligenza artificiale generativa di Google forniva informazioni sanitarie imprecise nella parte superiore dei risultati di ricerca, portando potenzialmente pazienti gravemente malati a decidere erroneamente di essere in buona salute.

Google ha disabilitato alcune query, come “qual è l’intervallo normale per un esame del sangue del fegato”, dopo che gli esperti contattati dal The Guardian hanno segnalato i risultati come pericolosi. Il rapporto ha anche evidenziato un grave difetto nel cancro al pancreas: l’intelligenza artificiale ha consigliato ai pazienti di evitare cibi ricchi di grassi, una raccomandazione che contraddice le linee guida mediche standard per il mantenimento del peso e potrebbe mettere in pericolo la salute del paziente. Nonostante questi risultati, Google ha disabilitato solo il riepilogo delle domande sul test del fegato, lasciando accessibili altre risposte potenzialmente dannose.

L’indagine ha rivelato che la ricerca delle regole sui test epatici ha prodotto tabelle di dati grezzi (che elencano enzimi specifici come ALT, AST e fosfatasi alcalina) prive del contesto necessario. Inoltre, la funzionalità AI non è riuscita ad adattare queste statistiche ai dati demografici dei pazienti come età, sesso ed etnia. Gli esperti avvertono che la definizione di “normale” dei modelli di intelligenza artificiale spesso differisce dagli standard medici effettivi, quindi i pazienti con gravi patologie epatiche potrebbero erroneamente credere di essere sani ed evitare le necessarie cure di follow-up.

Vanessa Hebditch, direttrice delle comunicazioni e delle politiche del British Liver Trust, ha dichiarato al Guardian che un test di funzionalità epatica è una raccolta di diversi esami del sangue e comprendere i risultati è “complesso e molto più complicato che confrontare una serie di numeri”. Ha aggiunto che le panoramiche dell’intelligenza artificiale non riescono ad avvisare che qualcuno potrebbe ottenere un risultato normale per questo test quando ha una grave malattia al fegato e necessita di ulteriori cure mediche. “Queste false assicurazioni possono essere molto dannose”, ha detto.

Google ha rifiutato di commentare la rimozione specifica al The Guardian. Un portavoce dell’azienda dire The Verge osserva che Google investe nella qualità delle panoramiche dell’intelligenza artificiale, in particolare per argomenti relativi alla salute, e “fornisce per lo più informazioni accurate”. Il portavoce ha aggiunto che il team interno di medici dell’azienda ha esaminato ciò che è stato condiviso e “in molti casi le informazioni non erano imprecise ed erano supportate da siti Web di alta qualità”.

Collegamento alla fonte