Alcune persone che partecipano a progetti di ricerca online stanno usando l’IA per risparmiare tempo

Daniel D’Ntory/Unclasses

Il questionario online viene sommerso dalle reazioni AI per inquinare un’importante fonte di dati per gli scienziati.

Le piattaforme, come i partecipanti a retribuzione prolifica, hanno dato piccoli importi per rispondere alle domande presentate dai ricercatori. Sono popolari come un modo semplice per raccogliere partecipanti per studi sul comportamento tra gli accademici.

Anne-Mary Nusbarger E al Max Planck Institute for Human Development a Berlino, in Germania, i suoi colleghi hanno deciso di indagare su quante volte gli intervistati hanno usato l’intelligenza artificiale dopo aver visto esempi nel loro lavoro. Dice: “L’incidente che stavamo vedendo è stato davvero scioccante”.

Ha scoperto che il 45 percento dei partecipanti a cui è stata posta una singola domanda aperta, che è nella scatola su un segnale copiato e incollato del contenuto, credono che le persone stessero interrogando l’IA Chatbot per risparmiare tempo.

Ulteriori indagini sul contenuto delle reazioni hanno spiegato più chiaramente l’uso di AI, come “azione eccessiva” o lingua “unicamente non umana”. Dice: “I dati che abbiamo raccolto all’inizio di quest’anno sembrano essere contaminati dal fatto che una percentuale sufficiente di studio sia contaminata”.

In uno studio successivo con VIPUL, i ricercatori hanno aggiunto una rete progettata per strappare il chatbot. Sono stati catturati due recaptchas- piccoli test basati su pattern progettati per separare gli umani dal bot-0,2 per cento dei partecipanti. Un recitaptcha più avanzato, che ha utilizzato informazioni sul comportamento attuale con l’attività precedente degli utenti, erba altri partecipanti al 2,7 per cento. Una domanda nel testo che era invisibile agli umani, ma leggibile per i robot era chiedere loro di includere la parola “nocciola” nella loro risposta, catturata un altro 1,6 per cento, prevenendo e incollando qualsiasi imbrogli e identificava un’altra gente del 4,7 per cento.

“Quello che dobbiamo fare non è completamente diffidare della ricerca online, piuttosto che reagire e reagire”, afferma Nusbarger. È la responsabilità dei ricercatori, che dovrebbero trattare le risposte con più dubbi e prendere un deposito per prevenire il comportamento di A-Sangha, afferma. “Ma davvero importante, sento anche che ci sia molta responsabilità sulle piattaforme. Devono rispondere e prendere questo problema molto sul serio.”

Vipul non ha risposto Nuovo scienziatoRichiesta di commento.

“L’integrità della ricerca comportamentale online è già stata sfidata dai partecipanti ai siti di sondaggi per presentarsi in modo errato o ottenere un denaro o un voucher per usare i robot, dando validità a remoti auto-rapporti per comprendere la sola psicologia e comportamento umani complessi”, afferma. , Matte HodgekinsonRicerca un consulente indipendente nella moralità. “I ricercatori richiedono metodi per verificare collettivamente la partecipazione umana o di tornare all’approccio vecchio stile del contatto faccia a faccia.”

Soggetto:

Collegamento alla fonte