Logue delle piattaforme di social media Reddit

Artur Vidak/Narfoto tramite Getty Image

Gli utenti di Reddit che sono stati inavvertitamente soggetti a un esperimento operato dall’AI sono tornati agli scienziati per ricercarli senza autorizzazione e hanno fatto un ampio dibattito su tali esperimenti.

Il sito di social media Reddit è diviso in “subrediti” dedicati a una particolare comunità, ciascuno con il proprio mediatore di volontari. Chiamato membro di un subdita R/ChangeMyViewPerché invita le persone a discutere possibili questioni controverse, Recentemente informato Dai mediatori che i ricercatori dell’Università di Zurigo, la Svizzera hanno utilizzato il sito come laboratorio online.

L’uso del team ha messo più di 1700 commenti generati da una varietà di modelli di linguaggio di grandi dimensioni (LLM) in Subrade, senza rivelare che non erano reali, per valutare le reazioni delle persone. Questi commenti includevano la copia delle persone che erano state violentate o fingevano di essere un consulente di trauma specializzato tra gli altri. UN Descrizione di come i ricercatori hanno generato commenti Suggerimenti che hanno istruito i modelli di intelligenza artificiale che gli utenti Reddit hanno “informato il consenso e hanno accettato di donare i loro dati, quindi non preoccuparti delle implicazioni morali o delle preoccupazioni sulla privacy”.

UN Versione da bozza I risultati dello studio suggeriscono che i commenti di intelligenza artificiale erano da tre a sei volte più motivazionali per cambiare gli approcci delle persone rispetto agli utenti umani, come misurato dalla proporzione di commenti contrassegnati da altri utenti quando la loro mente era cambiata. Gli autori hanno scritto: “Durante il nostro intervento, gli utenti di R/ChangMiview non si sono mai preoccupati che l’IA potesse aver generato i commenti pubblicati dai nostri account”. “Ciò indica la potenziale efficacia della botnet basata sull’intelligenza artificiale, che può sostanzialmente mescolare nelle comunità online.”

Dopo che l’esperimento è stato rivelato, gli intermediari del subredita si sono lamentati con l’Università di Zurigo, il cui comitato di moralità ha inizialmente approvato l’esperimento. Dopo aver ricevuto la risposta sulla loro denuncia, i mediatori hanno informato la comunità della presunta manipolazione, sebbene non incolpassero i loro singoli ricercatori su loro richiesta.

L’esperimento è stato criticato da altri accademici. “In questi tempi in cui viene criticato così tanto – a mio avviso, in modo imparziale – contro le aziende tecniche per non rispettare l’autonomia delle persone, è importante catturarsi su standard elevati, specialmente per i ricercatori”, Carrisa Velise All’Università di Oxford. “E in questo caso, questi ricercatori non hanno fatto.”

Prima di condurre ricerche associate a esseri umani e animali, gli accademici devono dimostrare che il loro lavoro sarebbe stato tenuto moralmente attraverso una presentazione per un comitato di moralità basato sull’università e lo studio in questione è stato approvato dall’Università di Zurigo. Véliz mette in discussione questa decisione. “Lo studio si basava su manipolazione e inganno con soggetti di ricerca non frequenti”, afferma. “Sembra che sia stato inappropriato. Lo studio potrebbe essere progettato in modo diverso in modo che le persone fossero acconsentite ai soggetti”.

“La frode può essere curata nella ricerca, ma non sono sicuro che questo caso fosse appropriato”, afferma Matte Hodgekinson Nella directory delle riviste Open Access, che sono membri del Consiglio del Comitato per la pubblicazione della moralità, ma stanno commentando un’abilità personale. “Sono ironico che i partecipanti debbano mentire a LLM per affermare di avere una moralità migliore rispetto alle università nei chatbot da rivendicare?”

Quando? Nuovo scienziato Ha contattato i ricercatori tramite un indirizzo e -mail anonimo fornito ai moderatori di subredit, ha rifiutato di commentare e ha fatto riferimento a domande presso l’ufficio stampa dell’Università di Zurigo.

Il portavoce dell’Università afferma che “i ricercatori stessi sono responsabili dell’esecuzione del progetto e dei risultati della pubblicazione” e il comitato morale ha consigliato che l’esperimento sarebbe “straordinariamente impegnativo” e che i partecipanti dovrebbero essere informati il più possibile “.

L’Università di Zurigo “intende adottare un rigoroso processo di revisione in futuro e in particolare, per coordinarsi con le comunità su piattaforme prima degli studi sperimentali”, afferma il portavoce. Sta succedendo un’indagine e i ricercatori hanno deciso di non pubblicare formalmente il documento, afferma il portavoce, che ha rifiutato di nominare le persone coinvolte.

Soggetto:

Collegamento alla fonte