Si possono risolvere i problemi dei social media?

Moiram / Almi

L’effetto di polarizzazione dei social media non è solo il risultato di scarsi algoritmi, ma è inevitabile perché a causa dei suoi componenti principali come funziona la piattaforma, uno studio è stato trovato con gli utenti trasgressori di AI. Ciò suggerisce che il problema non verrà risolto fino a quando non riprendiamo il mondo della comunicazione online.

Petar Tenberg All’Università di Amsterdam nei Paesi Bassi e nei suoi colleghi hanno fondato il 500 AI Chatbot progettato per imitare una serie di credenze politiche negli Stati Uniti sulla base del National Election Study Survey degli Stati Uniti. Quei robot gestiti dal Mini Big Language Model GPT-4O sono stati quindi incaricati di interagire tra loro su un semplice social network, che i ricercatori hanno progettato senza pubblicità o algoritmi.

Durante le cinque corse dell’esperimento, ognuna consisteva in 10.000 azioni, gli agenti di intelligenza artificiale tremavano per seguire coloro con cui condividevano l’affiliazione politica, mentre le persone con idee più distorte ricevevano più seguaci e ripubblicamenti. Ciò ha attirato l’attenzione complessiva per gli utenti che si sono spostati verso poster più distorti.

In uno studio precedente, Tornberg e i suoi colleghi hanno scoperto se il falso social network di social network con algoritmi diversi può identificare le rotte per ridurre la polarizzazione politica, ma la nuova ricerca confuta le loro precedenti scoperte.

“Speravamo che questa (polarizzazione) sarebbe stata qualcosa che è gestito dagli algoritmi”, afferma Tornberg. “(Abbiamo pensato) che le piattaforme siano progettate per esso – per produrre questi risultati – perché sono progettate per massimizzare il coinvolgimento e urinarti.”

Invece, ha scoperto che non era l’algoritmo stesso a causare il problema, che poteva fare qualsiasi sforzo per uscire dal comportamento dell’utente avversario con molto a malapena. “Installiamo la piattaforma più semplice che possiamo immaginare, e poi, boom, abbiamo già questi risultati”, dicono. “Suggerisce già che deriva molto originale per il fatto che abbiamo comportamenti, ripubblicando e seguenti.”

Per vedere se tali comportamenti possono essere messi a tacere o contati, i ricercatori hanno anche testato sei possibili soluzioni, tra cui un mangime completamente coloniale, dà meno importanza ai materiali virali, aumentano gli anti -idee e la simpatia e i materiali logici, nascondono il seguace e il numero di ripubblicamenti, nascondendo l’altro.

La maggior parte degli interventi ha creato una leggera differenza: la miscela a partito trasversale non ha cambiato più del 6 percento e la partecipazione dell’attenzione con i migliori conti si è spostata tra il 2 e il 6 percento, mentre gli altri, come nascondere l’autobiografia degli utenti, ha peggiorato il problema. Quando c’era un profitto in un’area, erano in competizione con effetti negativi altrove. La correzione che ha ridotto la disuguaglianza degli utenti ha reso le posizioni estreme più popolari, mentre i cambiamenti nell’ammorbidimento del distorto hanno prestato ancora più attenzione a una piccola classe aristocratica.

“La maggior parte delle attività sui social media sono sempre i frutti degli alberi velenosi: i problemi dell’insorgenza dei social media sono sempre con il loro design fondamentale e possono incoraggiare il peggio del comportamento umano”, Jess Madox All’Università della Georgia.

Mentre Törnberg ammette che l’esperimento è una simulazione che può semplificare alcuni meccanismi, pensa che possa dirci cosa devono fare le piattaforme sociali per ridurre la polarizzazione. “Potremmo aver bisogno di un intervento più fondamentale e aver bisogno di una riconsiderazione più fondamentale”, dicono. “Questo potrebbe non essere sufficiente per interrompere gli algoritmi e cambiare i parametri della piattaforma, ma (noi) più fondamentalmente la struttura dell’interazione e questi spazi devono essere riconsiderati sulla struttura della nostra politica.”

Soggetto:

Collegamento alla fonte