I medici dell’intelligenza artificiale potrebbero appiattire l’umanità in modelli prevedibili, sacrificando così la cura intima e personale che ci si aspetta dai medici umani tradizionali. Oberhaus scrive: “La logica della PAI porta a un futuro in cui potremmo ritrovarci tutti pazienti in manicomi algoritmici amministrati da guardiani digitali”. “Nell’asilo algoritmico non c’è bisogno di sbarre alle finestre o di stanze imbottite bianche perché non c’è possibilità di fuga. L’asilo è già ovunque: nelle vostre case e uffici, scuole e ospedali, tribunali e caserme. Ovunque ci sia una connessione Internet, l’asilo è in attesa.”


Terapia Chatbot:
Un’analisi critica di
Trattamento della salute mentale dell’IA

Giovanni Fullam

Routledge, 2025

Eoin Fullam, un ricercatore che studia l’intersezione tra tecnologia e salute mentale, fa eco ad alcune delle stesse preoccupazioni Terapia chatbot: un’analisi critica del trattamento della salute mentale con l’intelligenza artificialeImportante testo accademico, il libro analizza i presupposti alla base dei trattamenti automatizzati offerti dai chatbot basati sull’intelligenza artificiale e il modo in cui gli incentivi capitalistici possono corrompere questi tipi di strumenti,

Fullam ritiene che la mentalità capitalista dietro le nuove tecnologie “spesso porta a pratiche commerciali discutibili, illegittime e illegali in cui gli interessi dei clienti sono secondari rispetto alle strategie di dominio del mercato”.

Ciò non significa che i produttori di robot terapeutici “condurranno necessariamente attività nefaste contrarie agli interessi degli utenti nel perseguimento del dominio del mercato”, scrive Fullam.

Ma osserva che il successo della terapia con intelligenza artificiale dipende dagli impulsi inseparabili di fare soldi e curare le persone. In questa logica, sfruttamento e terapia si alimentano a vicenda: ogni sessione di terapia digitale genera dati, e tali dati alimentano un sistema che realizza profitti poiché si prende cura degli utenti non pagati. Quanto più efficace sembra essere la terapia, tanto più radicato diventa il ciclo, rendendo più difficile distinguere tra cura e mercificazione. Scrive: “Più benefici gli utenti ricevono dall’app nel contesto di un intervento terapeutico o di qualsiasi altro intervento di salute mentale, maggiore è la probabilità che subiscano sfruttamento”.


Questo senso dell’ouroboros economico e psicologico – il serpente che si mangia la coda – funge da metafora centrale. TaglioIl primo romanzo di Fred Lunzer, un autore con un background di ricerca nel campo dell’intelligenza artificiale.

Viene descritto come “un ragazzo incontra una psichiatra AI”. Taglio Adrian, un giovane londinese che scrive canzoni rap, ha una storia d’amore con Maqui, un professionista abile nell’individuare tecnologie redditizie nella fase beta.

copertura della psiche
Taglio
Fred Lunger

Libri Celadon, 2025

Il titolo si riferisce a una brillante terapista professionista dell’intelligenza artificiale di nome Psiche, caricata su occhiali intelligenti, che Adrian usa per interrogare le sue miriadi di preoccupazioni. “Quando mi sono iscritto a Psyche, abbiamo allestito la nostra dashboard, un ampio pannello nero come la cabina di pilotaggio di un aereo che mostrava i miei “vitali” quotidiani”, spiega Adrian. “La psiche può analizzare il modo in cui cammini, il modo in cui stabilisci il contatto visivo, di cosa parli, le cose che indossi, quanto spesso fai pipì, fai la cacca, ridi, piangi, baci, menti, gemi e tossisci.”

Collegamento alla fonte