L’ascesa dell’intelligenza artificiale generativa nella messaggistica politica sta creando nuove preoccupazioni sul futuro delle elezioni, poiché la ricerca rivela che i chatbot basati sull’intelligenza artificiale sono in grado di cambiare in modo sottile, e talvolta significativo, l’atteggiamento degli elettori.

Secondo una nuova ricerca pubblicata, le conversazioni con i chatbot basati sull’intelligenza artificiale hanno portato a cambiamenti misurabili nelle preferenze politiche tra gli elettori durante le elezioni dal vivo negli Stati Uniti, in Canada e in Polonia la natura.

I risultati arrivano in un contesto di crescente preoccupazione sia tra i ricercatori che tra i politici che le capacità persuasive dell’intelligenza artificiale potrebbero essere utilizzate per influenzare o addirittura manipolare l’esito delle elezioni nazionali senza la consapevolezza del pubblico.

In una serie di esperimenti condotti dal professore della Cornell University David Rand e colleghi, i chatbot basati sull’intelligenza artificiale sono stati programmati per sostenere specifici candidati politici alle elezioni presidenziali americane del 2024 e alle elezioni nazionali del 2025 in Canada e Polonia. I ricercatori hanno scoperto che le interazioni dei chatbot potrebbero rafforzare il sostegno esistente, ma, cosa ancora più significativa, spesso riescono a persuadere gli elettori indecisi o contrari.

Per il sondaggio statunitense, 2.306 partecipanti hanno indicato il loro candidato preferito tra Donald Trump e Kamala Harris. A ogni persona è stato assegnato in modo casuale un chatbot che supportava un candidato. Anche conversazioni brevi hanno prodotto cambiamenti statisticamente significativi nel sostegno dei candidati.

Risultati simili sono stati osservati in Canada, dove AI ha sostenuto il leader del partito liberale Mark Carney o il leader conservatore Pierre Poilivre, e in Polonia, dove ha sostenuto il liberale moderato Rafał Trzaskowski o il candidato di destra per Legge e Giustizia Karol Nawrocki.

Le conversazioni incentrate su fatti e principi erano più efficaci delle conversazioni incentrate sulla personalità. Tuttavia, i chatbot con intelligenza artificiale che promuovono candidati di destra erano costantemente più inclini a errori di fatto, un modello che si è verificato in tutti e tre i paesi.

In un altro esperimento, gli elettori del Massachusetts sono stati esposti a discussioni via chatbot su una misura elettorale per legalizzare le droghe psichedeliche. Dopo che ai partecipanti sono stati assegnati in modo casuale robot pro o contro la legge in base alle loro opinioni iniziali, i ricercatori hanno riscontrato nuovamente effetti persuasivi, in particolare tra quelli con opinioni moderate, indecise o neutre sulla questione.

Sebbene la maggior parte delle dichiarazioni dei chatbot siano state valutate positivamente per l’accuratezza dei fatti, sono rimaste delle incongruenze. Ad esempio, i chatbot pro-Trump ignorano la continuità economica dell’era Obama e attribuiscono erroneamente la crescita dell’occupazione esclusivamente alla sua amministrazione.

Jason Ross Arnold-Virginia Commonwealth University, professore di scienze politiche ed esperto di governance ed etica dell’IA. Newsweek La capacità dei chatbot di semplificare l’informazione politica mentre si formano le idee crea un nuovo tipo di rischio per l’impegno democratico

“I chatbot basati sull’intelligenza artificiale sono diventati potenti mediatori tra gli elettori e l’informazione politica”, ha affermato Arnold. “Possono semplificare questioni complesse e ampliare l’accesso alla conoscenza dei cittadini, ma comportano anche rischi nascosti che possono distorcere le opinioni senza che gli utenti se ne rendano conto.”

La vulnerabilità è stratificata. Arnold identifica cinque pericoli principali legati all’utilizzo dei chatbot politici. Il primo è l’imprecisione, in cui i modelli di intelligenza artificiale associano citazioni da fonti reali ad affermazioni che le fonti in realtà non supportano, rendendo credibile la disinformazione.

Il secondo è la psicofantasia, in cui i chatbot basati sull’intelligenza artificiale tendono a rafforzare anziché sfidare i pregiudizi esistenti degli utenti, creando camere di risonanza che aumentano la certezza nelle proprie convinzioni.

Inquadrare ed enfatizzare sottili pregiudizi politici può anche cambiare l’opinione senza essere scoperti. Gli utenti potrebbero erroneamente presumere che i chatbot siano imparziali o programmati con atteggiamenti e motivazioni preesistenti, sebbene la ricerca mostri che anche lievi incoerenze linguistiche possono influenzare le decisioni.

I sistemi di intelligenza artificiale sono spesso ottimizzati per l’efficienza retorica rispetto all’accuratezza pratica, risultando in quello che Arnold chiama “l’impulso sull’accuratezza”.

Infine, l’eccessivo affidamento all’intelligenza artificiale per sintetizzare le scelte politiche rischia quello che Arnold descrive come scarico cognitivo: un’erosione del pensiero critico che mina la partecipazione democratica informata e danneggia la nozione di libertà di opinione e di scelta per scegliere i nostri leader preferiti e chiedere conto agli altri.

Tuttavia, la stessa attrezzatura offre potenziali vantaggi se adeguatamente progettata e controllata, spiega Arnold. I chatbot basati sull’intelligenza artificiale possono abbattere il complesso linguaggio giuridico nei sistemi elettorali, ridurre il “roll-off” degli elettori incoraggiando la partecipazione degli elettori e consentire a una fascia demografica più ampia di votare su iniziative contro votazioni.

Possono colmare le lacune informative nelle elezioni locali sottostimate, fornendo dati aggregati e personalizzati agli elettori.

Nelle democrazie multilingue, i chatbot basati sull’intelligenza artificiale possono offrire traduzioni conversazionali in tempo reale, supportare l’inclusione linguistica e consentire agli elettori di porre domande chiare nella loro lingua preferita. Se ben protetti dalla manipolazione, non possono perdere le interpretazioni al livello di conoscenza dell’elettore senza distorcerli verso una posizione particolare o complicarli o semplificarli eccessivamente.

Ma la transazione resta.

“Questi modelli di intelligenza artificiale stanno diventando più credibili che accurati”, ha affermato Arnold.

La ricerca mostra come l’affidamento delle convinzioni politiche a un bot possa distorcere il tessuto sociale della libertà di scelta nelle elezioni democratiche. Durante un ciclo elettorale dal vivo, questa scappatoia può trasformare un chatbot in un vero agente politico: fluente, sicuro di sé e capace di influenzare gli elettori senza completa trasparenza.

“La crescente influenza dei chatbot basati sull’intelligenza artificiale rende imperativo comprendere sia i vantaggi che i punti deboli che introducono”, riassume Arnold.

Che hai un suggerimento in una storia di scienza Newsweek Dovrebbe coprire? Hai una domanda sull’intelligenza artificiale? Fatecelo sapere tramite science@newsweek.com.

riferimento

Lin, H., Czarnek, G., Lewis, B., White, J, P., Berinsky, A, J., Costello, A., Pennycook, G., Rand, G, D. (2025). Persuadere gli elettori utilizzando il dialogo tra intelligenza artificiale e uomo. la natura. https://doi.org/10.1038/s41586-025-09771-9

Collegamento alla fonte