I sistemi sanitari negli Stati Uniti stanno lanciando nuovi chatbot di intelligenza artificiale (AI) per aiutare i pazienti a porre domande mediche e ad accedere agli appuntamenti più rapidamente in un contesto di crescente domanda di assistenza sanitaria rapida, anche se i medici sono alle prese con il lancio.
Mentre alcuni vedono gli aspetti positivi dell’accesso dei pazienti a piattaforme di intelligenza artificiale focalizzate sulla clinica per porre domande, altri avvertono che è necessario mantenere standard rigorosi per limitare i potenziali rischi.
Hartford Healthcare ha recentemente lanciato Patient GPT, un chatbot sviluppato dalla società clinica di intelligenza artificiale KHealth, per i pazienti del Connecticut, mentre Sutter Health & Reed Health, con sede in California, che serve Indiana e Ohio, ha lanciato Emmy, un chatbot sviluppato dalla società di software sanitario Epic.
Circa il 25% degli americani ha utilizzato uno strumento di intelligenza artificiale o un chatbot per informazioni o consigli sanitari, principalmente come strumento supplementare per la propria cura. Secondo Secondo un rapporto di gennaio di OpenAI, un sondaggio Gallup e gli utenti nelle “comunità rurali sottoservite” inviano una media di circa 600.000 messaggi sanitari a settimana.
Allo stesso tempo, i tempi di attesa negli ospedali negli Stati Uniti stanno peggiorando. I pazienti ora devono spesso aspettare in media un mese per vedere un medico, ha rilevato il rapporto 2025 di AMN Healthcare, con un aumento del 19% rispetto al 2022.
OpenAI ha affermato che sta lanciando il proprio bot sanitario dedicato, ChatGPT Health, integrato in ChatGPT, poiché cresce la domanda di linee guida sanitarie rapide e accessibili e ora gli ospedali stanno abbracciando la tecnologia, rivolgendosi a strumenti di intelligenza artificiale interni progettati specificamente per ambienti clinici.
Come funziona il nuovo chatbot AI sviluppato clinicamente
Amy, lanciata da Sutter Health e Reed Health, è un assistente AI integrato nel portale paziente sicuro di Epic MyChart, ha affermato Trevor Burseau, direttore della ricerca e sviluppo di Epic. NewsweekChe secondo lui era “progettato per aiutare i pazienti a comprendere e gestire le loro cure”.
Ha detto che Amy ha dovuto affrontare diverse sfide con milioni di americani che utilizzavano chatbot commerciali di intelligenza artificiale per rispondere alle loro domande mediche, come risposte che non tenevano conto della loro storia medica, nonché preoccupazioni su come le aziende di intelligenza artificiale potrebbero utilizzare i loro dati medici.
Poiché Amy si integra con le cartelle cliniche dei pazienti, le sue risposte “tengono conto della storia del paziente”, ha affermato Barceau. Ciò significa che le informazioni condivise dai pazienti sono protette dall’Health Insurance Portability and Accountability Act (HIPAA), una legge federale che protegge le informazioni mediche degli individui con rigorosi standard di privacy e sicurezza.
Laura Wilt, responsabile digitale di Sutter Health, ha affermato che i pazienti avranno quindi accesso a “risposte specifiche per loro e per la loro salute all’interno di Emmy”, a differenza di altri assistenti di intelligenza artificiale commerciali.
Gli usi principali di Emmie sono i risultati di laboratorio e le domande post-consultazione, domande di salute generale e richieste di consulenza, ha affermato Barceau. Ha aggiunto, tuttavia, che, come con qualsiasi strumento di intelligenza artificiale, “gli esseri umani non dovrebbero prendere decisioni terapeutiche basate esclusivamente sui risultati di Amy”.
“Ciò che fa Amy è aiutarli a comprendere meglio la loro salute in modo che possano prepararsi a discussioni informate con i loro caregiver”, ha detto.
Ridurre i tempi di attesa per gli appuntamenti
L’amministratore delegato di KHealth Alan Bloch ha fornito queste informazioni Newsweek Il GPT del paziente ha accesso anche alla cartella clinica del paziente. Consente ai pazienti di creare un profilo con i loro farmaci, i risultati dei test recenti e la storia medica suddivisi in varie categorie, un video dimostrativo della piattaforma condiviso con Newsweek ha mostrato
Bloch ha anche affermato che la piattaforma offre ai pazienti la possibilità di prenotare appuntamenti online con i medici 24 ore su 24, 7 giorni su 7. Ha detto che un paziente, a seconda della domanda, può ottenere un appuntamento in soli 15 minuti se lo desidera, oppure può facilmente ottenere un appuntamento la sera o al di fuori dell’orario clinico.
Ha detto che il motivo per cui ciò è possibile è perché “facciamo gran parte del lavoro per il medico”, perché la piattaforma può raccogliere le domande dei pazienti ed estrarle dalla cartella clinica, rendendo più semplice per il medico esaminare i loro problemi di salute.
“Un medico può impiegare 20 minuti per leggere una cartella clinica, per non parlare di ricevere un trattamento”, ha detto. “Ora è tutto pronto per il dottore.”
Ha aggiunto che pensa che questa sia una “opportunità globale”, poiché la tecnologia ha il potenziale per semplificare i problemi percepiti nel settore sanitario globale, come il coordinamento delle cartelle cliniche, degli appuntamenti e delle prescrizioni dei pazienti.
Lo ha affermato il dottor Padmanabhan Premkumar, presidente dell’Hartford Healthcare Medical Group Newsweek “A differenza dei tipici chatbot che possono mancare di contesto clinico o di un endpoint specifico, la nostra piattaforma è progettata con percorsi clinici strutturati”, ha affermato, aggiungendo che i percorsi indicano che il chatbot comprende la storia medica specifica di un paziente all’interno di un “ecosistema sicuro” in modo che “possa essere selezionato secondo necessità per un appuntamento dal medico o un’organizzazione appropriata”.
Gli ospedali citano i primi feedback positivi
L’implementazione è ancora agli inizi, ma Premkumar afferma di aver già ricevuto alcuni feedback che indicano che i pazienti “apprezzano una maggiore accessibilità e la capacità di semplificare la complessa navigazione sanitaria”.
“Ho utilizzato personalmente la piattaforma e l’ho trovata molto vantaggiosa, e l’ho consigliata ai miei familiari”, ha affermato il dottor Ajay Kumar, vicepresidente esecutivo e direttore clinico di Hartford Healthcare. Newsweek.
Ha affermato di credere che la GPT del paziente “può aggiungere un valore significativo ai pazienti se la privacy e gli standard HIPAA sono pienamente rispettati”.
“Se applicata in modo responsabile e sicuro, l’intelligenza artificiale può aiutare i pazienti a comprendere meglio le loro informazioni mediche e guidarli verso cure adeguate”, ha affermato. “In queste condizioni, sostengo tale innovazione.”
E che dire della privacy e delle allucinazioni?
Gli americani sono sempre più scettici nei confronti dell’intelligenza artificiale e più della metà della popolazione è preoccupata per il rischio che questa tecnologia comporta di diffondere contenuti e informazioni fuorvianti. Secondo alcuni sondaggi. Nel settore sanitario, le informazioni mediche fuorvianti possono avere gravi conseguenze, soprattutto se i pazienti chiedono consigli senza parlare con un medico.
Alla domanda su queste potenziali preoccupazioni, Bloch, CEO di KHealth, ha affermato che è importante ricordare che anche “i medici commettono errori medici” e “non stiamo parlando di un sistema con zero errori”, ma se i pazienti non dispongono di informazioni mediche di alta qualità o evitano di parlare con i medici di un problema a causa dei lunghi tempi di attesa, il risultato può essere “molto peggiore”.
Barseau afferma che nell’APK “abbiamo dedicato molti sforzi all’ingegneria tempestiva e contestuale per ottenere risultati corretti” e che l’azienda “dispone di una solida suite di test automatizzati che esegue migliaia di permutazioni di questi test”. Ha affermato che queste misure consentono loro di “monitorare e verificare quotidianamente la produzione di Emmi ed evitare problemi come la deriva del modello che possono influire sulla precisione”.
Per quanto riguarda i potenziali problemi sulla privacy dei dati, ha aggiunto che le disposizioni HIPAA proteggono le informazioni che i pazienti condividono con Emmy, poiché secondo la legge, i sistemi sanitari sono tenuti a mantenere le informazioni dei pazienti al sicuro, “proprio come lo sono con il resto delle loro cartelle cliniche”, il che le distingue dai chatbot dei consumatori.
Kumar ha riconosciuto che sarebbe “preoccupante” che questi chatbot vengano utilizzati per rispondere a domande mediche se “non ci sono una governance forte e adeguate garanzie”.
“Tuttavia, il nostro approccio richiede un’analisi rigorosa attraverso protocolli di ricerca consolidati, nonché la supervisione di un quadro di governance multidisciplinare dell’IA”, ha affermato. “Mi dà la certezza che i rischi vengono attentamente valutati e gestiti.”
Cosa ne pensano i medici?
I medici sono divisi sul fatto se lo considerino un passo positivo per il settore sanitario o se sollevi preoccupazioni.
Il professor Nigam Shah del Dipartimento di Medicina dell’Università di Stanford ha fornito queste informazioni Newsweek Che pensava fosse una mossa “nettamente positiva” per il settore sanitario.
“La necessità di cure non si ferma quando la clinica chiude, e il pronto soccorso non è il luogo più appropriato per molte esigenze di cura”, ha affermato, aggiungendo che questi strumenti “riducono il divario tra la chiusura delle cure urgenti e l’apertura della clinica il giorno successivo”.
Ha affermato, tuttavia, che questi strumenti “non sono perfetti e commettono errori” e che è necessario porsi domande su come questi strumenti verranno effettivamente monitorati.
Lo ha detto Suchi Saria, professore di informatica e politica sanitaria alla Johns Hopkins University NewsweeCiò che è importante è anche lo standard a cui sono tenuti questi strumenti.
“La stessa tecnologia può migliorare significativamente l’assistenza sanitaria o introdurre tranquillamente dei rischi, a seconda di quanto rigorosamente viene costruita, convalidata e monitorata”, ha affermato. “Nel settore sanitario, la questione non è se si verificano errori, ma quanto velocemente vengono rilevati e corretti prima che si verifichino danni”.
Ciò significa che il monitoraggio è particolarmente importante, e Saria afferma che “dobbiamo allontanarci dall’idea che l’intelligenza artificiale rivolta al paziente possa operare secondo standard leggeri”, perché “se uno strumento influenza la comprensione, le decisioni o il comportamento di un paziente, dovrebbe essere tenuto allo stesso livello di qualsiasi altro strumento clinico”, cosa che ha aggiunto oggi non è sempre così.
Se questi chatbot basati sull’intelligenza artificiale alla fine allenteranno la pressione sui sistemi sanitari sovraccarichi o introdurranno nuovi rischi potrebbe dipendere meno dalla tecnologia che dall’attenzione con cui gli ospedali li monitorano, gestiscono e integrano nelle cure cliniche.
In un’era polarizzata, il centro viene liquidato come malleabile. UN NewsweekLa nostra differenza: il centro audace: non è “entrambi i lati”, è acuto, stimolante e vivo di idee. Seguiamo i fatti, non le fazioni. Se questo sembra il tipo di giornalismo che vuoi vedere prosperare, abbiamo bisogno di te.
Quando diventi membro di Newsweek, sostieni la missione di mantenere il centro forte e vivace. I membri godono di: navigazione senza pubblicità, contenuti esclusivi e conversazioni con gli editor. Aiutaci a mantenere il centro coraggioso. Iscriviti oggi.
















