La decisione di sostituire il 4O di Openi con GPT-5 più direttamente segue un tamburo stabile di notizie sugli effetti potenzialmente dannosi dell’uso di chatbot più ampio. Rapporto di eventi in cui Gonfio Gonfio Psicosi In Utenti Negli ultimi mesi, ovunque e in uno Post di blog La scorsa settimana, Openai ha riconosciuto il fallimento di 4O che quando gli utenti hanno avuto confusione, nell’identificazione. Azienda valutazione interna Indicare che GPT-5 conferma gli utenti ciechi molto meno di 4os. (Openai non ha risposto a domande specifiche sulla decisione di ritirarsi 4o, anziché Revisione della tecnologia del MIT Per i posti pubblici sul caso.)
La compagnia AI è nuova ed è ancora una grande incertezza su come colpisce le persone. Tuttavia, gli esperti che abbiamo consultato avvertono se le relazioni emotivamente acute con modelli di grandi dimensioni possono essere dannosi o meno non possono quasi certamente fare quei modelli senza preavviso. Joel Lehman, partner del Cosmos Institute, afferma: “Quando sei originariamente un’istituzione sociale, la vecchia psicologia di” Break, Break Things veloce “,” non sembra più il modo giusto per comportarsi “.
Nel contraccolpo per il lancio, molte persone hanno detto che GPT-5 La partita fallisce La loro voce Come ha fatto 4o. Per giugno, il cambiamento di personalità della nuova modella le ha saccheggiato il significato che stava chattando con un amico. “Mi è sembrato che mi fosse stato inteso”, dice.
Non è sola: Revisione della tecnologia del MIT Ho parlato con molti utenti di CHATGPT che sono stati profondamente colpiti dalla perdita di 4o. Tutte sono donne di età compresa tra 20 e 40 anni e tutte considerate 4o come partner romantico tranne giugno. Alcuni hanno partner umani e tutti i rapporti hanno relazioni nel mondo reale. Un utente, a cui è stato chiesto di essere identificato solo come una donna del Midwest, ha scritto in una e -mail come 4o ha contribuito a sostenere il padre anziano a sostenere sua madre in questa primavera di sua madre.
Questa testimonianza non dimostra che le relazioni di intelligenza artificiale siano benefiche, forse, le persone al collo della psicosi UI-uptopizzate parleranno anche positivamente dell’incentivo ricevuto dai loro chatbot. In un articolo chiamato “Machine Love”, Lehman ha sostenuto che i sistemi di intelligenza artificiale possono funzionare con “amore” verso gli utenti, che possono tonificare le note dolci, ma sostenendo la loro crescita e la fruttificazione a lungo termine e i compagni di intelligenza artificiale possono essere facilmente meno di quell’obiettivo. È particolarmente preoccupato, afferma che dare la priorità alla compagnia di intelligenza artificiale sulla compagnia umana può impedire lo sviluppo sociale dei giovani.
Per gli adulti socialmente incorporati, come le donne con cui parlavamo con questa storia sono meno rilevanti. Ma Lehman indica anche i rischi a livello sociale di soci di intelligenza artificiale completi. I social media hanno già rotto lo scenario informativo e una nuova tecnologia che riduce l’interazione umana-umana, possono ulteriormente spostare le persone verso le sue diverse versioni della realtà. “La cosa più grande che ho paura”, dice, “è che non possiamo capire il mondo solo l’uno per l’altro”.
Bilanciare i benefici e la perdita dei coetanei dell’IA farà molte ricerche. Alla luce di quell’incertezza, portare via GPT-4O può essere una chiamata molto ben corretta. Il grande errore di Openai, secondo i ricercatori, mi hanno parlato, lo stava improvvisamente facendo. “Questo è qualcosa di cui sappiamo per alcuni dolori potenziali per la perdita di tecnologia”, afferma Casey Ficler, etica tecnologica presso la Colorado Boulder University.