Un hack del 2020 Una finitura funge da avvertimento per la società di salute mentale, che si traduce nell’accesso ai registri terapeutici di migliaia di clienti. Le persone sono state ricattate nell’elenco e in seguito l’intero trimestre è stato rilasciato pubblicamente, il che mostra dettagli estremamente sensibili come l’abuso delle persone e i problemi di dipendenza.

Ciò che i medici stanno perdendo

Oltre alle violazioni della privacy dei dati, altri rischi includono quando gli psichiatri consultano LLM per conto di un cliente. Gli studi hanno scoperto che sebbene alcuni robot medici speciali Può competere con Consigli per la scelta di interventi convertiti dall’uomo, CHATGPT può causare più danni.

UN Studio recentemente dell’Università di StanfordAd esempio, è stato scoperto che i chatbot possono dare carburante a confusione e psicopatica accettando un utente chiudendo un utente invece di sfidare un utente, oltre a soffrire di pregiudizio e si impegna nella sicofanità. Lo stesso difetto può essere rischioso per il medico consultare un chatbot per conto dei tuoi clienti. Ad esempio, potrebbero convalidare la gobba di un medico senza fondamento o portarli sulla strada sbagliata.

Aguilera afferma di aver giocato con dispositivi come Chatgpt mentre insegna ai tirocinanti di salute mentale, come entrare in sintomi immaginari e chiesto di diagnosticare l’IA Chatbot. L’attrezzatura produrrà molte condizioni possibili, ma è diluita nella sua analisi, dicono. American Counselling Association raccomandato Attualmente l’intelligenza artificiale non è utilizzata per la diagnosi di salute mentale.

UN Studio Pubblicato nel 2024 di una versione precedente del chip, è stato scoperto che era molto vago e comune che era effettivamente utile per preparare i piani di diagnosi o di trattamento, ed era un forte di parte per suggerire alle persone di trovare una terapia comportamentale cognitiva che potesse essere più adatta.

Uno psichiatra e neuroscienziato Daniel Kimmel della Columbia University ha condotto esperimenti con uno sputato, dove ha introdotto come relazione con un cliente. Ha scoperto che ha scoperto che il chatbot era un miming decente quando si trattava delle risposte mediche “di stock-in-trade”, come la normalizzazione e la convalida, chiedendo ulteriori informazioni o evidenzia alcune associazioni cognitive o emotive.

Tuttavia, “non ha scavato troppo”, dice. “Sembra apparire o non ha tentato di collegare insieme cose superficialmente non correlate … per venire con una storia, un pensiero, un principio”.

“Dubiterei di usarlo per pensare per te”, dicono. Pensando questo, dice, dovrebbe essere fatto il lavoro di un medico.

I medici possono risparmiare tempo usando la tecnologia basata sull’intelligenza artificiale, ma questo vantaggio dovrebbe essere valutato rispetto alle esigenze dei pazienti, Morris dice: “Forse ti stai risparmiando qualche minuto. Ma cosa stai dando?”

Collegamento alla fonte