Il modello AI Foresight utilizza i dati prelevati dai registri dell’ospedale e dei medici di famiglia in Inghilterra

Attraverso Hannah McKake/Reuters/Bloomberg Getty Image

I suoi creatori hanno affermato che un’intelligenza artificiale formata su dati medici di 57 milioni di persone che utilizzano servizi sanitari nazionali in Inghilterra può aiutare i medici a prevedere i pazienti. Tuttavia, altri ricercatori affermano che esistono ancora importanti problemi di privacy e sicurezza dei dati in merito a un uso così massiccio dei dati sanitari, mentre anche gli architetti di AI affermano di non poter garantire che non rive darà dati sui pazienti inconsapevolmente sensibili.

Si chiama Foresight, che è stato sviluppato per la prima volta nel 2023. La versione iniziale ha utilizzato GPT-3 di Openai, Big Language Model (LLM), che era dietro la prima versione di Chatgpt, ed è stata addestrata su 1,5 milioni di registri di pazienti reali da due ospedali di Londra.

Ora, Chris Tomlinson L’University College di Londra e i suoi colleghi dell’University College di Londra hanno fatto una lungimiranza per rendere i primi “dati sanitari al mondo del modello di AI generico a livello nazionale” e il più grande del suo genere.

La fodera ha utilizzato otto diversi set di dati di informazioni mediche raccolte regolarmente da NHS in Inghilterra tra novembre 2018 e dicembre 2023 e si basa sul Meta Open-Solm LAMA 2. Questi set di dati includono appuntamenti ambulatoriali, visite ospedaliere, dati di vaccinazione e record, incluso un totale di 10 miliardi di eventi sanitari per 57 milioni di persone.

Tomalinson afferma che il suo team non sta rilasciando informazioni su come si comporta bene la lungimiranza perché il modello è ancora in fase di test, ma afferma che un giorno può essere usato per fare di tutto per prevedere la diagnosi personale per prevedere tendenze di salute più ampie future, come ospedalizzate. Ha detto in una conferenza stampa del 6 maggio: “La vera capacità della lungimiranza è prima di prevedere le complicanze della malattia, dandoci una finestra preziosa per intervenire rapidamente e consentire un cambiamento verso un’assistenza sanitaria più preventiva sulla scala”.

Sebbene i possibili benefici debbano ancora essere supportati, già i dati medici delle persone vengono alimentati con AI su così larga scala. I ricercatori hanno sottolineato che tutti i record sono stati “de-fondati” prima di essere utilizzati per addestrare l’IA, ma il rischio di poter utilizzare i modelli nei dati per la requisiti per la requisito è ben registrato, specialmente quando si presentano set di dati di grandi dimensioni.

“La creazione di un potente modello di AI generativo che protegge la privacy dei pazienti è un problema scientifico aperto e irrisolto”, afferma Luke Roor All’Università di Oxford. “La stessa prosperità dei dati che lo rende prezioso per l’IA rende inaffidabile renderlo sconosciuto. Questi modelli dovrebbero rimanere sotto il controllo del SSN rigoroso dove possono essere utilizzati in modo sicuro.”

“I dati che vanno nel modello sono la de-identità, quindi gli identificatori diretti vengono rimossi”, Michael Chapman In NHS Digital, parlando alla conferenza stampa. Ma Chapman, che supervisiona i dati utilizzati per formare la lungimiranza, ha ammesso che esiste sempre il rischio di riconoscimento: “È molto difficile dare la certezza al 100 % con ricchi dati sulla salute che nessuno può essere visto in quel set di dati”.

Per ridurre questo rischio, Chapman ha affermato che l’IA sta lavorando all’interno di un ambiente di dati NHS “sicuro” su misura per garantire che le informazioni non siano trapelate dal modello ed è accessibile solo ai ricercatori approvati. Tomalinson ha affermato che Amazon Web Services e Data Company Databricks hanno anche fornito “infrastruttura computazionale”, ma non può accedere ai dati.

Yaves-Alcajendre de Montoys A Londra all’Imperial College, si dice che i modelli possano rivelare informazioni sensibili, verificando se possono perdere i dati visti durante la formazione. Quando viene chiesto Nuovo scienziato Il team Foresight ha condotto questi test, Tomalinson ha detto che non lo era, ma stava cercando di farlo in futuro.

Come utilizzare un set di dati così enorme senza comunicare le persone può anche indebolire la convinzione pubblica. Caroline Green All’Università di Oxford. “Anche se è anonimo, è qualcosa che le persone si sentono fortemente da un punto di vista morale, perché le persone di solito vogliono controllare i loro dati e vogliono sapere dove sta andando.”

Ma i controlli esistenti danno alle persone pochissime possibilità di uscire dai loro dati utilizzati dalla lungimiranza. Tutti i dati utilizzati per addestrare il modello provengono dal set di dati NHS raccolti a livello nazionale e poiché è stata “de-identità”, I meccanismi di opt-out esistenti non si applicanoUn portavoce del NHS Inghilterra afferma, sebbene coloro che hanno scelto di condividere i dati con i loro medici di famiglia non saranno fatti nel modello.

In base al Regolamento generale sulla protezione dei dati (GDPR), le persone devono avere la possibilità di ritirare il consenso per l’uso dei loro dati personali, ma il modo in cui LLMS è addestrato come lungimiranza, il modo in cui non è possibile rimuovere i singoli record dagli strumenti di intelligenza artificiale. Il portavoce del NHS England afferma che “poiché i dati utilizzati per addestrare il modello sono sconosciuti, non utilizza dati personali e il GDPR non sarà applicabile”.

In effetti come il GDPR dovrebbe affrontare l’impossibilità di rimuovere i dati da un LLM Domanda legale inutilizzataMa il sito Web dell’ufficio del Commissario per le informazioni del Regno Unito afferma che i dati “detensificati” non dovrebbero essere utilizzati come sinonimo di dati anonimi. “Questo perché i dati del Regno Unito non definiscono la legge sulla protezione delle parole, quindi utilizzarla può causare confusione”, Dice,

Tomalinson afferma che lo status legale è più complesso in quanto la lungimiranza viene attualmente utilizzata solo per la ricerca relativa a Kovid -19. Sam Smith ha affermato che le eccezioni delle leggi sulla sicurezza dei dati attuate durante le epidemie FalsoUn’organizzazione per la privacy dei dati del Regno Unito. “Questa intelligenza artificiale solo kovidi è quasi certamente i dati del paziente incorporati, che non possono essere esclusi dal laboratorio”, dicono. “I pazienti dovrebbero controllare come vengono utilizzati i loro dati.”

Infine, diritti e responsabilità competitivi in merito all’utilizzo di dati medici per la lungimiranza dell’IA in posizioni incerte. Green dice: “Quando si tratta di sviluppo dell’IA, c’è qualche problema, in cui la moralità e le persone hanno idee l’un l’altro piuttosto che il punto iniziale”, afferma Green. “Ma quello che vogliamo è essere il punto iniziale per gli umani e la moralità, e poi arriva la tecnica.”

Articolo rivisto il 7 maggio 2025

Siamo stati dichiarati correttamente responsabili dei commenti fatti dal portavoce di NHS Inghilterra

Soggetto:

Collegamento alla fonte