“Integrerà variabili demografiche e cliniche, dati documentati di pianificazione anticipata delle cure, valori registrati dai pazienti e informazioni pertinenti su obiettivi e decisioni specifiche”, ha affermato.
“Incorporare dati testuali e conversazionali può migliorare ulteriormente le capacità di apprendimento di un modello.” Perché Le scelte nascono e cambiano, non solo Che cosa La scelta di un paziente era un singolo momento nel tempo,” ha detto Stark.
Ahmed ha suggerito che la ricerca futura potrebbe esplorare la validazione dei quadri di giustificazione negli studi clinici, la valutazione dei compromessi etici attraverso la simulazione e il modo in cui la bioetica interculturale può essere integrata con la progettazione dell’intelligenza artificiale.
Solo allora i surrogati dell’intelligenza artificiale potrebbero essere pronti per essere utilizzati, ma solo come “aiuti alle decisioni”, ha scritto Ahmed. Qualsiasi “risultato sfidante” “innescherebbe automaticamente una revisione etica”, ha scritto Ahmed, aggiungendo: “Il surrogato dell’IA più bello è quello che invita al dialogo, ammette i dubbi e lascia spazio alle cure”.
“L’intelligenza artificiale non ci libererà”
Ahmad spera di testare i suoi modelli concettuali in vari siti UW nei prossimi cinque anni, il che “fornirà un modo per misurare quanto sia buona questa tecnologia”, ha detto.
“Dopodiché, penso che ci sia una decisione collettiva su come noi, come società, decidiamo di assimilare o assimilare qualcosa di simile”, ha detto Ahmed.
Nel suo articolo, ha messo in guardia contro i surrogati dell’intelligenza artificiale dei chatbot che potrebbero essere interpretati come simulazioni di pazienti, prevedendo che i modelli futuri potrebbero persino parlare con la voce del paziente e suggerendo che la “comodità e familiarità” di tali strumenti potrebbero offuscare il “confine tra assistenza e manipolazione emotiva”.
Stark concorda sulla necessità di ulteriori ricerche e di “conversazioni arricchite” tra pazienti e medici.
“Dovremmo stare attenti a non applicare arbitrariamente l’intelligenza artificiale come soluzione a qualsiasi problema”, ha affermato Stark. “L’intelligenza artificiale non ci libererà dal prendere decisioni morali difficili, soprattutto quelle riguardanti la vita e la morte.”
Trug, un esperto di bioetica, ha detto ad Ars che “può immaginare che l’intelligenza artificiale” possa un giorno “fornire alcune informazioni interessanti a un decisore surrogato, e questo sarebbe utile”.
Ma un “problema con tutti questi percorsi… è che definiscono se eseguire o meno la RCP come una scelta binaria, indipendentemente dal contesto o dalle circostanze dell’arresto cardiaco”, afferma l’editoriale di Truge. “Nel mondo reale, quando un paziente perde conoscenza, la risposta alla domanda se vuole eseguire la RCP è: “In quasi tutti i casi”, “dipende”.
Quando Trug pensa al tipo di situazione in cui potrebbe trovarsi, sa che non può considerare solo i propri valori, la salute e la qualità della vita. La sua scelta “potrebbe dipendere da quello che pensano i miei figli” o “quale sarebbe il risultato finanziario nei dettagli di quella che sarebbe la mia previsione”, ha detto all’Ars.
“Voglio che mia moglie o qualcun altro che mi conosca bene prenda queste decisioni”, ha detto Trug. “Non voglio che nessuno dica: ‘Bene, ecco cosa ci ha detto l’intelligenza artificiale a riguardo.'”