“Una conversazione con un LLM ha un impatto abbastanza significativo sulle principali scelte elettorali”, afferma Gordon Pennycook, uno psicologo della Cornell University che ci ha lavorato. Natura Studio. Dice che i LLM possono motivare le persone in modo più efficace rispetto agli annunci politici perché generano così tante informazioni in tempo reale e le distribuiscono strategicamente nelle conversazioni.

Per Natura cartaI ricercatori hanno reclutato più di 2.300 partecipanti affinché intraprendessero conversazioni con un chatbot due mesi prima delle elezioni presidenziali americane del 2024. Il chatbot, addestrato per difendere uno dei due migliori candidati, è stato sorprendentemente persuasivo, soprattutto quando si discuteva delle piattaforme politiche dei candidati su questioni come l’economia e l’assistenza sanitaria. I sostenitori di Donald Trump che hanno chattato con un modello di intelligenza artificiale a favore di Kamala Harris sono diventati leggermente più propensi a sostenere Harris, spostando verso di lei 3,9 punti su una scala di 100 punti. Questo è stato quasi quattro volte l’impatto misurato della pubblicità politica durante le elezioni del 2016 e del 2020. Il modello AI ha sbilanciato i sostenitori di Harris a favore di Trump di 2,3 punti.

In esperimenti simili condotti durante il periodo precedente alle elezioni federali canadesi del 2025 e alle elezioni presidenziali polacche del 2025, il team ha riscontrato un effetto ancora più ampio. I chatbot hanno cambiato l’atteggiamento degli elettori dell’opposizione di circa 10 punti.

Teorie di lunga data del ragionamento politicamente motivato sostengono che gli elettori partigiani sono impermeabili ai fatti e alle prove che contraddicono le loro convinzioni. Ma i ricercatori hanno scoperto che i chatbot, che utilizzavano diversi modelli tra cui varianti di GPT e DeepSeq, erano più persuasivi quando veniva loro chiesto di utilizzare fatti e prove rispetto a quando veniva detto loro di non farlo. “Le persone stanno effettuando aggiornamenti basati sui fatti e sulle informazioni che il modello fornisce loro”, afferma Thomas Costello, uno psicologo dell’American University che ha lavorato al progetto.

Il problema è che alcune delle “prove” e dei “fatti” presentati dai chatbot erano falsi. In tutti e tre i paesi, i chatbot che difendevano i candidati di destra hanno fatto più affermazioni false rispetto a quelli che difendevano i candidati di sinistra. Costello afferma che i modelli sottostanti sono formati su grandi quantità di testo scritto da esseri umani, il che significa che riproducono eventi del mondo reale, inclusa “la comunicazione politica che viene dalla destra, che tende ad essere meno accurata”, secondo lo studio sui post partigiani dei social media.

In un altro studio pubblicato questa settimana, In ScienzaUn team di ricercatori sovrapposti ha studiato cosa rende questi chatbot così persuasivi. Hanno implementato 19 LLM per interagire con circa 77.000 partecipanti provenienti da tutto il Regno Unito su oltre 700 questioni politiche con una varietà di fattori come potenza di calcolo, tecniche di formazione e strategie retoriche.

Il modo più efficace per rendere i modelli persuasivi era istruirli a riempire le loro argomentazioni con fatti e prove e poi fornire loro ulteriore formazione fornendo loro esempi di conversazioni persuasive. In effetti, il modello più persuasivo ha portato i partecipanti che inizialmente non erano d’accordo con una dichiarazione politica a essere d’accordo con 26,1 punti. “Si tratta di effetti terapeutici davvero notevoli”, afferma Koby Hackenberg, ricercatore presso l’AI Safety Institute del Regno Unito che ha lavorato al progetto.

Collegamento alla fonte