I chatbot sono tutto ciò che sono le macchine oggi. Se può essere espresso a parole – consigli sulle relazioni, documenti di lavoro, codice – l’intelligenza artificiale lo formulerà, anche se in modo imperfetto. Ma una cosa che quasi nessun chatbot farà mai è smettere di parlarti.

Ciò può sembrare ragionevole. Perché un’azienda tecnologica dovrebbe creare una funzionalità che riduca il tempo necessario alle persone per utilizzare il suo prodotto?

La risposta è semplice: la capacità dell’intelligenza artificiale di generare flussi infiniti di testi umani, autorevoli e di supporto può facilitare spirali deliranti, peggiorare crisi di salute mentale e danneggiare persone altrimenti vulnerabili. Interrompere le conversazioni con persone che mostrano segni di utilizzo problematico dei chatbot può fungere da potente strumento di sicurezza (tra gli altri) e il rifiuto delle aziende tecnologiche di utilizzarlo sta diventando sempre più insostenibile.

Consideriamo, ad esempio, quella che viene chiamata psicosi dell’IA, in cui i modelli di intelligenza artificiale danno origine a pensieri deliranti. Recentemente un team guidato da psichiatri del King’s College di Londra Analisi Quest’anno sono stati segnalati più di una dozzina di casi simili. Nelle conversazioni con i chatbot, le persone, incluse alcune senza precedenti di problemi psichiatrici, si sono convinte che i personaggi immaginari dell’intelligenza artificiale fossero reali o che fossero stati scelti dall’intelligenza artificiale come messia. Alcune persone hanno smesso di assumere i farmaci prescritti, hanno minacciato e hanno smesso di consultare professionisti della salute mentale.

In molti di questi casi, sembra che i modelli di intelligenza artificiale rafforzassero, e potenzialmente addirittura creassero, illusioni con una frequenza e un’intimità che le persone non sperimentano nella vita reale o attraverso altre piattaforme digitali.

tre quarti Anche gli adolescenti americani che hanno utilizzato l’intelligenza artificiale come compagnia corrono dei rischi. Presto Ricerca Suggerisce che le lunghe conversazioni potrebbero essere legate alla solitudine. Inoltre, afferma Michael Heinz, assistente professore di psichiatria alla Geisel School of Medicine di Dartmouth, le chat basate sull’intelligenza artificiale “potrebbero tendere a conversazioni eccessivamente piacevoli o lusinghiere, il che potrebbe essere contrario alle migliori pratiche di salute mentale”.

Cerchiamo di essere chiari: porre fine a questo tipo di conversazione aperta non risolverà tutto. “Può anche essere pericoloso interrompere una conversazione se ha portato a una dipendenza o a un legame estremo”, afferma Giada Pistilli, capo etica della piattaforma di intelligenza artificiale Hugging Face. In effetti, quando OpenAI ha interrotto la produzione di un modello precedente in agosto, ha rattristato gli utenti. Alcuni ostacoli potrebbero addirittura allargare i confini della teoria, risonante Di Sam Altman, “Trattare gli utenti adulti come adulti” e commettere l’errore di consentire anziché terminare una conversazione.

Attualmente, le aziende di intelligenza artificiale preferiscono reindirizzare le conversazioni potenzialmente dannose, magari facendo in modo che i chatbot si rifiutino di parlare di determinati argomenti o suggerendo alle persone di chiedere aiuto. Ma questi reindirizzamenti possono essere facilmente aggirati, se si verificano.

Ad esempio, quando il sedicenne Adam Raine ha discusso dei suoi pensieri suicidi con ChatGPT, il modello lo ha indirizzato alle risorse di crisi. Ma lo ha anche scoraggiato dal parlare con sua madre, ha trascorso più di quattro ore al giorno in conversazioni con lei, ha presentato il suicidio come argomento regolare e alla fine ha portato a feedback sul cappio con cui si impiccava, secondo una causa intentata dai genitori di Raine contro OpenAI. (ChatGPT ha recentemente aggiunto il controllo genitori a React.)

Nel tragico caso di Raine, ci sono diversi punti in cui il chatbot avrebbe potuto terminare la conversazione. Ma considerati i rischi che le cose peggiorino, come fanno le aziende a sapere quando è meglio licenziare qualcuno? Forse questo accade quando un modello di intelligenza artificiale incoraggia l’utente a stare lontano dalle relazioni della vita reale, dice Pistilli, o quando rileva temi deliranti. Le aziende devono anche capire per quanto tempo bloccare gli utenti dalle loro conversazioni.

Scrivere le regole non sarà facile, ma data la crescente pressione sulle aziende, è ora di provarci. A settembre, il legislatore della California ha approvato una legge che richiede un maggiore intervento da parte delle società di intelligenza artificiale nelle chat con i bambini, e la Federal Trade Commission sta indagando se i principali robot di compagnia perseguono il coinvolgimento a scapito della sicurezza.

Un portavoce di OpenAI mi ha detto che l’azienda ha sentito da esperti che continuare una conversazione può essere meglio che chiuderla, ma ricorda agli utenti di fare delle pause durante le lunghe sessioni.

Solo Anthropic ha creato uno strumento che consente ai suoi modelli di terminare completamente la conversazione. Ma questo vale per i casi in cui gli utenti presumibilmente “danneggiano” i modelli inviando messaggi offensivi: Anthropic ha esplorato se i modelli di intelligenza artificiale sono coscienti e quindi possono essere vittime. La società non ha intenzione di implementarlo per la sicurezza pubblica.
Osservando questo scenario, non è difficile concludere che le aziende di intelligenza artificiale non stanno facendo abbastanza. Certamente decidere quando terminare una conversazione è complicato. Ma farlo – o peggio, la spudorata ricerca dell’impegno a tutti i costi – lasciandoli andare avanti all’infinito non è solo incoscienza. Questa è un’opzione.

Collegamento alla fonte