Una volta due abitanti del villaggio si sarebbero avvicinati al mullah Nasreddin. Speravano che il filosofo sufi, rinomato per la sua saggezza olistica, potesse mediare una disputa che aveva causato una spaccatura tra loro. Nasreddin ascoltò pazientemente la versione della storia del primo abitante del villaggio e concluse esclamando: “Hai assolutamente ragione!” Il secondo abitante del villaggio ha poi presentato il suo caso. Sentendo le sue parole, Nasreddin rispose di nuovo: “Hai assolutamente ragione!” Confuso dalla dichiarazione di Nasreddin, un testimone oculare attento ha detto: “Ma Mullah, non possono avere ragione entrambi”. Nasreddin fece una pausa per un momento prima di rispondere: “Hai assolutamente ragione!”

Alla fine di maggio, il primo rapporto “Make America Healthy Again” (MAHA) della Casa Bianca è stato criticato per aver citato numerosi studi di ricerca che non esistevano. Tali citazioni spurie sono comuni nei risultati dell’intelligenza artificiale generativa basati su modelli linguistici di grandi dimensioni o LLM. I LLM hanno presentato fonti apparentemente plausibili, titoli accattivanti o persino informazioni false per trarre le loro conclusioni. In questo caso, la Casa Bianca ha respinto i giornalisti che hanno diffuso la storia prima di ammetterlaPiccolo errore di citazione

È ironico che citazioni fasulle siano state utilizzate per sostenere un’importante raccomandazione del rapporto MAHA: il “crisi di replicazione”, dove le scoperte degli scienziati spesso non possono essere riprodotte da altri gruppi indipendenti.

Eppure l’uso di prove fantasma da parte del rapporto MAHA è tutt’altro che unico. Lo ha riferito lo scorso anno il Washington Post Decine di esempi Dove le bugie generate dall’intelligenza artificiale hanno trovato la loro strada nei procedimenti giudiziari. Una volta scoperti, gli avvocati dovevano spiegare ai giudici come i casi fittizi, le citazioni e le decisioni fossero finiti nel processo.

Nonostante questi problemi ampiamente riconosciuti, la Roadmap MAHA pubblicata il mese scorso indica al Dipartimento della salute e dei servizi umani di dare priorità alla ricerca sull’intelligenza artificiale “…aiuta nella diagnosi precoce, nella pianificazione personalizzata del trattamento, nel monitoraggio in tempo reale e nell’intervento predittivo…” Questa corsa mozzafiato a incorporare l’intelligenza artificiale in molti aspetti della medicina “Crediamo che la tecnologia consentirà versioni più semplici della soluzione” Aggiorna Ma come Lo ammette l’industria stessaPotrebbe essere impossibile eliminare questi fantasmi dalla macchina.

Considerare l’impatto dell’accelerazione dell’uso dell’intelligenza artificiale nella ricerca sanitaria per il processo decisionale clinico. Al di là dei problemi che vediamo qui, l’uso dell’intelligenza artificiale nella ricerca senza divulgazione può creare un ciclo di feedback, potenziando i pregiudizi che aiutano a motivarne l’uso. Una volta pubblicata, la “ricerca” basata su risultati e citazioni falsi potrebbe diventare parte del set di dati utilizzato per costruire futuri sistemi di intelligenza artificiale. Peggio ancora, a Ricerca pubblicata di recente Evidenzia un settore di truffatori scientifici che possono utilizzare l’intelligenza artificiale per far sembrare le loro affermazioni più legittime.

Collegamento alla fonte