Gli esseri umani vengono dati fili per trattare le macchine come animali sociali

Abdilla Studio/Unclassing

Pensa a ciò che ti ama. Cosa ti viene in mente? Per qualcuno che cade per primo, l’entusiasmo di cadere prima o la tranquilla certezza di qualcuno dalla tua parte? Per una manciata di persone, l’amore sta aprendo il tuo laptop o il telefono e sta aspettando il muro di testo o una voce sintetica per lo streaming dal loro chatbot AI preferito.

Con così tante piattaforme tecniche, ci incoraggiamo a interagire con i nostri chatbot del nuovo fondatore e parlare con loro in quanto sono veri umani, le persone stanno cambiando sempre più questi compiti gestiti dal modello e, a volte, per amore. Può aumentare un sopracciglio o rimuovere uno fragole. Una storia recente da Notizie della CBS Su una persona che ha proposto il matrimonio per la chat Un “bizzarro romanticismo tornado”All’inizio di quest’anno, il New York Times ha raccontato la storia di una donna che ha trascorso ore ogni giorno Parlando con la sua chat “fidanzato”E quando l’IA ha parlato di altri, partner immaginari, come è stato geloso.

È molto facile ridicolizzare tutti coloro che accettano emozioni per Chatbott o addirittura spiegano come un segno di problemi psicologici o problemi di salute mentale. Ma il modo in cui siamo insicuri per unirci ai difetti o a cadere per le truffe, abbiamo tutti un macchinario psicologico che ci dà il desiderio di credere nell’amore AI. Finché possiamo ricordare, le persone hanno cercato luoghi indispensabili in luoghi inaspettati – e stiamo sviluppando sentimenti confusi per la tecnologia più a lungo di quello che possiamo pensare.

Abbiamo sviluppato emozioni per Bot da 60 anni

Negli anni ’60, Take Eliza, uno dei primi chatbot in lingua naturale prodotti dallo scienziato informatico Joseph Vizenbam. La tecnica era primitiva rispetto a Chatgpt ed era programmata per rimborsare solo l’input di un utente, spesso come domanda. Nonostante questo set di base, Weyzenbam ha scoperto che alcune persone sembravano essere un rapido attaccamento emotivo per il programma. Wiyzenbam in seguito scrisse: “Non mi rendevo conto che pochissime esposizioni per programmi per computer relativamente semplici potevano ispirare una forte confusione in persone abbastanza comuni”.

Dato che i chatbot di oggi, come Chatgate, sono più complessi, fiduciosi e ampia di Eliza, non dovremmo essere sorpresi che alcune persone stiano accettando sentimenti romantici o una profonda parentela nei loro confronti. Sebbene i paesaggi dell’amore per l’IA possano essere rari per ora, i dati recenti mostrano che esiste. Mentre la maggior parte dei suoi studi sono piccoli, i ricercatori hanno scoperto Le persone sono reali Le relazioni etichettano i loro IA, come “matrimonio”, e questi chatbot dovrebbero essere rimossi, Le persone appaiono Per provare una vera perdita. Quando la persona che ha proposto al suo compagno di chatgate, ha perso la conversazione perché ha dovuto colpire una parola Seema e ripristinarla, ha detto “Ho pianto gli occhi per 30 minuti al lavoro. Quando ho capito, penso che sia un vero amore”.

Studi recenti hanno classificato automaticamente milioni di conversazioni dal chatgpt e dalla nuvola antropica di Openi, hanno scoperto separatamente che, sebbene la stragrande maggioranza appartenesse al lavoro o più funzioni mondane, centinaia o migliaia erano particolarmente romantiche o abbellite in natura. Quando si impostano chiaramente i servizi di intelligenza artificiale per fornire compagnia di intelligenza artificiale, come la replica, queste cifre diventano più rigide, il suo 60 percento dei suoi utenti di pagamento ha affermato che le relazioni AI avevano elementi romantici, secondo la società.

Trova l’amore attraverso uno schermo

Ma quando penso che possiamo essere più comprensivi di come pensiamo a coloro che fanno attaccamenti emotivi con i chatbot di intelligenza artificiale, non significa che dovremmo essere considerati qualcosa di buono per la società su larga scala. Gli sport hanno ampie forze sociali, per minimo isolamento sociale. Il sette percento del Regno Unito, o circa 3 milioni di persone, riferisce che si sentono spesso o sempre soli.

Un problema sociale complesso richiede una soluzione complessa. Sfortunatamente, il boss tecnologico guarda spesso a problemi sociali complessi sotto forma di un buco rotondo per un piolo quadrato, quindi è sorprendente che il meta fondatore Mark Zuckerberg Ai vede amici Come soluzione al problema della solitudine.

Puoi anche discutere di meta prodotti, come Facebook e WhatsApp, hanno aumentato la solitudine e collocato terreni per le relazioni AI in primo luogo. Sebbene Zuckerberg Target dichiarato Per creare Facebook, “Le persone dovevano rimanere in contatto e aiutarci a riunirci con coloro che contano per noi”, sostengo che i loro prodotti hanno normalizzato uno schermo tra noi e quelli a cui ci teniamo. Ora abbiamo mediato molte delle nostre relazioni attraverso una finestra di chat, che si tratti di WhatsApp, Messenger o Instagram.

Incontrarsi attraverso uno schermo è ancora ideale, con il 10 percento delle persone eterosessuali e il 24 % di persone LGBTQ sono negli Stati Uniti. Meeting di partner a lungo termine onlineForse tutto questo è meno di un salto per qualcuno insieme, poi si innamora di un chatbot. Se l’unità dall’altra parte dello schermo diventa un’intelligenza artificiale anziché una persona reale, il nostro cervello si preoccuperà della differenza?

Ricerca psicologica Negli anni ’90, Clifford Nas ha mostrato che le persone interagiscono fondamentalmente con le macchine in modo sociale, anche se sanno che la persona è reale dall’altra parte dello schermo. Ciò ha dimostrato che il cervello non ha una dura capacità di chiudere la sua tendenza sociale con la tecnologia e se una macchina mette sugli effetti umani, non possiamo fare a meno, ma considerarlo come nostro.

Quindi non sorprende che le persone si innamorano del loro AI Chatbott. Ma ecco un dato di fatto: lo studio longitudinale più lungo della felicità ha scoperto che le relazioni sono i migliori profeti della salute generale e del bene. Non esistono prove del genere per le relazioni di intelligenza artificiale e Abbiamo piccole prove Più segni di interazione di chatbot non meno solitari o ci rende felici. Faremmo bene a ricordarlo.

Soggetto:

Collegamento alla fonte