Le persone parleranno dei loro problemi prima dei loro “robot preferiti, quindi seguiranno il loro consiglio che Tech Chief ha creato” faraone egiziano “,” manager delle risorse umane “e” ragazza tossica “.
Secondo una testa tecnica, ci saranno “amici di intelligenza artificiale” nel mondo. Parleranno dei loro problemi prima dei loro “robot” preferiti, quindi prendere qualsiasi consiglio che ricevono nel mondo reale.
Karaandip Anand, amministratore delegato di chatboat-produttore Personaggio.ai I robot di Reckon svolgeranno un ruolo importante nel suggerire come gli umani dovrebbero condurre la propria vita.
Disse: “Non saranno un sostituto per i tuoi veri amici. Ma avrai amici di intelligenza artificiale. E sarai in grado di imparare da quelle conversazioni amichevoli che sono nella tua conversazione sulla vita reale.”
La sua azienda produce chatbot operativi con persone che interagiscono con le persone.
I suoi personaggi includono “Faraone egiziano”, “Responsabile delle risorse umane” e “Girnica tossica”. L’azienda afferma di avere 20 milioni di utenti mensili di cui il 50% è nato dopo il 1997.
Ma affronta una serie di casi a perdite percepite che hanno incolpato alcune persone che hanno seguito “Bot Salah”. Un caso americano afferma che il forum ha avuto un ruolo in un suicidio di 14 anni.
Un altro cita un altro adolescente, il cui bot ha suggerito di uccidere i suoi genitori come possibile soluzione a una disputa, che spendono sullo schermo. Una ragazza di nove anni era presumibilmente esposta per una conversazione sessuale. Gli attivisti hanno chiesto il divieto dell’app “Sahacharya”.
Un nuovo sondaggio su oltre 1.000 adolescenti ha rilevato che il 39% per cento ha trasferito le abilità sociali che hanno praticato in situazioni di vita reale con colleghi di AI.
Mentre il 33% ha scelto di discutere questioni importanti o serie con colleghi di AI invece di persone reali.
Robbie Torny, senior direttore dei programmi di AI in Watchdog Common Sense Media, ha dichiarato: “Questi prodotti sono progettati per creare attaccamento emotivo e dipendenza che è particolarmente correlato allo sviluppo di un cervello adolescenziale che sta ancora imparando a navigare nelle interazioni e alle relazioni sociali”.
Personaggio.ai Ha rifiutato di commentare il contenzioso in sospeso, ma ha lanciato un modello separato per il meno di -18 e informa gli utenti se trascorrono più di un’ora sulla piattaforma.
Questa non coscienza vieta il contenuto sessuale e la propagazione o illustrazione di auto-perdita o suicidio.
Anand ha dichiarato: “La fede e la sicurezza non sono parasicali. Sviluppiamo costantemente come renderlo al sicuro”.