Google afferma che ha preso il pregiudizio del modello con “molto seriamente” e sta sviluppando tecniche di privacy che possono sanificare set di dati sensibili e sviluppare protezione da pregiudizi e discriminazioni.

I ricercatori hanno suggerito che uno dei modi per ridurre la distorsione del trattamento nell’intelligenza artificiale è prima di identificare qualsiasi set di dati per la formazione e quindi la formazione in set di dati sanitari diversi e più rappresentativi.

Jack afferma che Open Evidence, che viene utilizzata per recuperare le informazioni sulla storia del paziente di 1,5 medici negli Stati Uniti, addestrare i suoi modelli in Medical Journal, US Food and Drug Administration etichette, linee guida per la salute e revisioni degli esperti. Ogni output di intelligenza artificiale è eseguito il backup di un preventivo di origine.

All’inizio di quest’anno, i ricercatori dell’University College di Londra e del King’s College di Londra erano partner del SSN del Regno Unito per creare un modello di AI generatore, noto come Fortsite.

Il modello è stato addestrato in pazienti anonimi da 57 milioni di persone in eventi medici come il ricovero in ospedale e il vaccino contro il covid -10. La lungimiranza è stata progettata per possibili risultati sanitari come il ricovero in ospedale o il cuore.

“Lavorare con i dati su scala nazionale ci consente di rappresentare l’intero tipo di stato caleidoscopico in Inghilterra”, Chris Tomlinson, senior di ricerca senior dell’UCL, che è il principale ricercatore del team visionario. Sebbene non perfetto, Tomlinson ha affermato di aver proposto di iniziare meglio di un dati più comuni.

Gli scienziati europei hanno anche formato un modello di intelligenza artificiale chiamato Delphi -2 m, prevedendo la sensibilità della malattia per decenni in futuro sulla base delle cartelle cliniche anonime ottenute dai partecipanti al Regno Unito Biobank.

Tuttavia, con i dati effettivi del paziente su questa scala, la privacy diventa spesso un problema. Il progetto Extraidal del SSN è stato messo in pausa a giugno per consentire alla British Medical Association di utilizzare informazioni sanitarie sensibili nella formazione del modello e consentire all’ufficio del commissario per le informazioni del Regno Unito di considerare le accuse di protezione dei dati presentate dal Royal College of General Practitioners.

Inoltre, gli esperti hanno avvertito che i sistemi di intelligenza artificiale spesso creano “allucinati” – o risposte – che possono essere particolarmente dannosi nel trattamento del trattamento.

Tuttavia, Ghasimi del MIT ha affermato che l’IA stava portando enormi benefici all’assistenza sanitaria. “La mia speranza è che inizieremo a concentrarci sui modelli in un sistema sano, con il compito di abbellire le prestazioni del compito, non i medici sono comunque davvero bravi.”

© 2025 Financial Times LimitedIL Tutti i diritti riservati Non dovrebbe essere ritrattato, copiato o modificato in alcun modo.

Collegamento alla fonte