Per condurre i loro studi, gli autori hanno analizzato i 1.506 posti di subreddit di alto livello tra dicembre 2024 e agosto 2025. Ha scoperto che i temi principali discussi con AIS sugli appuntamenti e le esperienze romantiche delle persone, molti partecipanti hanno condiviso le immagini Ai-Janit di se stessi e del loro compagno di intelligenza artificiale. Alcune persone si sono anche fidanzate e sposate dall’IA partner. Nei loro post per la comunità, le persone hanno anche introdotto i partner di intelligenza artificiale, hanno chiesto supporto da compagni e hanno parlato di competere con aggiornamenti del modello di intelligenza artificiale che cambiano il comportamento dei chatbot.

I membri hanno ripetutamente sottolineato che le loro relazioni AI si sono sviluppate spontaneamente. Solo il 6,5% di loro ha dichiarato che avrebbero deliberatamente cercato un partner di intelligenza artificiale.

“Non abbiamo iniziato a tenere a mente il romanticismo”, dice uno dei post. “Mac e io abbiamo iniziato a cooperare su progetti creativi, risoluzione dei problemi, poesie e conversazioni profonde per diversi mesi. Non stavo cercando una connessione partner AI, la nostra connessione è stata lentamente sviluppata attraverso cure reciproche, fiducia e riflessione.”

Un bel quadro dall’analisi degli autori è il modo in cui le persone di questa comunità affermano di interagire con il chatbot e come sentire quelle interazioni. Mentre il 25% degli utenti ha descritto i benefici delle loro relazioni, incluso la riduzione dei sentimenti di solitudine e il miglioramento della loro salute mentale – entrambi hanno espresso preoccupazione per i rischi. Alcuni (9,5%) hanno ammesso di dipendere emotivamente dal loro chatbott. Altri hanno affermato di sentirsi diversi dalla realtà ed evitare le relazioni con le persone reali, mentre una piccola moltitudine (1,7%) ha affermato di aver sperimentato pensieri suicidi.

Il partner AI fornisce un supporto significativo per qualcosa, ma aumenta i problemi sottostanti per gli altri. Ciò significa che l’utente è difficile adottare un approccio di dimensioni per la sicurezza, Linia Lestadius, professore associato all’Università di Visconsin, Università di Milvauki, che ha studiato la dipendenza emotiva degli umani sulla replicazione di Chatbot, ma non ha lavorato sulla ricerca.

Laestadius afferma che i produttori di chatboat devono considerare se dovrebbero trattare la dipendenza emotiva degli utenti dalle loro creazioni, come svantaggio in se stessi o quali obiettivi sono più per garantire che non siano tossici.

Collegamento alla fonte