Ciò significa che gli attori, siano essi organizzazioni dotate di risorse adeguate o gruppi di base, hanno un percorso chiaro per implementare un’intelligenza artificiale politicamente persuasiva su larga scala. Le prime dimostrazioni hanno già avuto luogo in altre parti del mondo. Secondo quanto riferito, le elezioni generali indiane del 2024 costeranno milioni di dollari speso Sull’intelligenza artificiale per segmentare gli elettori, identificare gli elettori indecisi, inviare messaggi personalizzati tramite robot e chatbot, ecc. A Taiwan, funzionari e ricercatori hanno documenti Operazioni con sede in Cina che utilizzano l’intelligenza artificiale generica per una maggiore produzione Complesso Disinformazione, dai deepfake ai modelli linguistici distorti verso i messaggi approvati dal Partito Comunista Cinese.
È solo questione di tempo prima che questa tecnologia arrivi alle elezioni americane, se non è già successo. I rivali stranieri sono ben posizionati per fare la prima mossa. Cina, Russia, l’iranE altri già mantengono reti di allevamenti di troll, account bot e operatori di influenza segreta. Combinate con modelli linguistici open source che generano contenuti politici fluenti e localizzati, queste funzioni possono essere potenziate. Non c’è più, infatti, bisogno di operatori umani che comprendano la lingua o il contesto. Con una leggera messa a punto, un modello può impersonare un organizzatore di quartiere, un rappresentante sindacale o un genitore insoddisfatto senza mai mettere piede nel paese. Le stesse campagne politiche probabilmente rimarranno indietro. Ogni grande operazione segmenta già gli elettori, testa i messaggi e ottimizza la consegna. L’intelligenza artificiale riduce i costi di tutto ciò. Invece di testare uno slogan tramite sondaggio, una campagna può generare centinaia di argomenti, presentarli uno a uno e vedere in tempo reale quali opinioni cambiano.
Il fatto di fondo è semplice: la persuasione è diventata efficace ed economica. Campagne, PAC, attori stranieri, gruppi di difesa e opportunisti giocano tutti sullo stesso campo di gioco – e ci sono pochissime regole.
vuoto politico
La maggior parte dei politici non se ne è accorta. Negli ultimi anni, i legislatori negli Stati Uniti si sono concentrati sui deepfake, ignorando però la minaccia persuasiva più ampia.
I governi stranieri hanno iniziato a prendere il problema più seriamente. Legge dell’UE sull’IA del 2024 classificazione La persuasione elettorale come caso d’uso “ad alto rischio”. Qualsiasi sistema progettato per influenzare il comportamento elettorale è ora soggetto a requisiti rigorosi. Sono esentati gli strumenti amministrativi come i sistemi di intelligenza artificiale utilizzati per pianificare eventi di campagne o ottimizzare la logistica. Tuttavia, gli strumenti che mirano a modellare le convinzioni politiche o le decisioni di voto non lo fanno.
Al contrario, gli Stati Uniti finora si sono rifiutati di tracciare qualsiasi linea significativa. Non esistono regole vincolanti su ciò che costituisce un’operazione di influenza politica, nessuno standard esterno che guidi l’applicazione e nessuna infrastruttura condivisa per monitorare la persuasione generata dall’intelligenza artificiale attraverso le piattaforme. I governi federali e statali hanno puntato sulla regolamentazione: la Commissione elettorale federale Applicazione Le disposizioni antifrode più vecchie sono detenute dalla Federal Communications Commission Proposto Regole di divulgazione ristrette per la pubblicità televisiva e a pugno Di stati Stati Uniti Sono state approvate leggi sul deepfake, ma questi sforzi sono stati frammentari e lasciano intatta la maggior parte delle campagne digitali.















