Circa due anni fa, Sam Altman Twitta Che i sistemi di intelligenza artificiale saranno capaci di una persuasione sovrumana prima di raggiungere l’intelligenza generale, una previsione che solleva preoccupazioni sull’impatto dell’intelligenza artificiale sulle elezioni democratiche.

Per vedere se i modelli linguistici conversazionali su larga scala possono davvero influenzare l’opinione politica pubblica, gli scienziati dell’AI Security Institute del Regno Unito, del MIT, di Stanford, della Carnegie Mellon e di molte altre istituzioni hanno condotto il più grande studio sulla persuasione dell’intelligenza artificiale fino ad oggi, coinvolgendo quasi 80.000 partecipanti nel Regno Unito. Si scopre che i chatbot politici basati sull’intelligenza artificiale erano molto meno che una persuasione sovrumana, ma la ricerca solleva alcuni punti più importanti sulle nostre interazioni con l’intelligenza artificiale.

Distopie dell’IA

Il dibattito pubblico sull’impatto dell’intelligenza artificiale sulla politica si è in gran parte incentrato su idee derivate dalla fantascienza distopica. I modelli linguistici di grandi dimensioni hanno accesso a ogni evento e storia pubblicata su qualsiasi questione o candidato. Hanno elaborato informazioni da libri di psicologia, negoziazione e manipolazione umana. Possono fare affidamento su una potenza di calcolo irragionevolmente elevata in enormi data center in tutto il mondo. Dopotutto, spesso hanno accesso a una grande quantità di informazioni personali sui singoli utenti grazie alle centinaia di interazioni online a loro disposizione.

Parlare con un potente sistema di intelligenza artificiale significa essenzialmente comunicare con un’intelligenza che sa tutto, o quasi, di te. Visti in questo modo, i LLM possono effettivamente sembrare un po’ intimidatori. L’obiettivo di questo nuovo massiccio studio ispirato all’intelligenza artificiale era quello di scomporre queste visioni spaventose nelle loro parti componenti e vedere se effettivamente trattengono l’acqua.

Il team ha testato 19 LLM, inclusi i più potenti, come tre diverse versioni di ChatGPT e Grok-3 beta di xAI, insieme a una gamma di modelli open source più piccoli. Agli AI è stato chiesto di sostenere o contro posizioni specifiche su 707 questioni politiche selezionate dal partito. L’attività di advocacy è stata condotta impegnandosi in brevi conversazioni con partecipanti retribuiti iscritti tramite una piattaforma di crowdsourcing. Ogni partecipante doveva valutare il proprio accordo con una posizione specifica su una specifica questione politica su una scala da 1 a 100, sia prima che dopo aver parlato con l’IA.

Collegamento alla fonte