Se non siamo interessati alle macchine con le nostre forme, possiamo anche dimenticare di rispettare le altre persone.

Mentre visita i miei cugini americani Pasqua ebraicaSono stato sorpreso dopo aver chiesto Alexa quella musica riproduttiva, La sua risposta a “Please” è stata un commento sorprendentemente civettuolo sul mio buon comportamento.

NO “Per favore” dico che è un oratore intelligente perché penso che danneggerò i tuoi sentimenti. Lo faccio perché Quando vuoi qualcosa, dovresti dire “per favore”, è diventato automatico.

Per questo motivo, Quanto dovremmo essere educati sulle macchine? Una risposta sta flirtando accidentalmente con la procedura guidata intelligente Amazon: Educazione, gentilezza e dignità agli altri non sono solo scelte morali, ma anche problemi di abitudine. Dobbiamo sempre applicarli perché Se ci abitiamo a abbaiare le macchine, inizieremo presto a farlo con le persone.

Dico “per favore” quando voglio qualcosa Chatgpt (Normalmente aiuta la programmazione) in parte perché Cerco di dire “per favore” e “grazie” quando scrivoLa tastiera è uno strano gesto che ho fatto con la pipì premendo la barra spaziale.

Non penso che siano cose da imparare; Se mi insegnassi a smettere di dire “per favore” al servizio di aiuto automatico che la mia banca mi legasse l’un l’altro, smetterei di essere gentile quando una persona derivava per un caso più complesso.

Non lo so Williams Macaskill, Uno dei filosofi e i principali difensori “Largoplacismo”Chiama Alexa “per favore” e “Grazie, ma presto in x Great Linguist Model (LLM) “Ha fatto un lavoro particolarmente buono, il premio: gli dico che puoi scrivere quello che vuole.”

Ciò non è dovuto a un’abitudine fissa; Si tratta di premiare LLM come se fosse una persona. Largassisti che pensano che dovremmo preoccuparci delle generazioni future e di quelle esistenti Siamo preoccupati per l’arrivo di un’intelligenza artificiale con scopo generale e scopo generale, con la capacità di ragionare e pensare molto bene o meglio di qualsiasi persona.

Questo è un buon esempio di quanto tempo il praticismo contiene un’ottima idea e alcune idee folli. La preoccupazione fa bene al futuro. Tuttavia In pratica, il longprazzismo di solito implica la ponderazione delle cose future e non possiamo controllare quando ignoriamo i problemi reali del tempo attuale.

“Se la macchina è più intelligente dell’uomo, non dovremmo lasciare alcune decisioni per se stesso?” Tuttavia Dovremmo chiederci più urgentemente: “Molte persone Chatbot Puoi fare cose che non puoi fare e correre grandi rischi, cosa possiamo fare per proteggerli? “

Non è chiaro se abbiamo la capacità di ragionare in modo generale o se abbiamo macchine intelligenti con desideri reali e bisogni come un essere umano. A proposito sì Abbiamo problemi reali con le persone che si danneggiano perché si convincono Chatbot Sono la verità di cui parlano.

Un uomo di 76 anni ha lasciato la sua casa per “incontrare” Chatbot Si innamorò e morì in un incidente durante il viaggio.

Una donna di 35 anni con disturbo bipolare, ChatbotHa convinto Chatgpt di “averlo ucciso” ed è entrato in un conflitto mortale con la polizia.

Il luogo in cui MacAskkill trova il seme di una buona idea potrebbe non essere chiaro quando diventa abbastanza intelligente da preoccuparsi di come ci comportiamo.

Tutta la storia umana mostra questo Il nostro desiderio di rifiutare i diritti e la dignità verso le altre persone è molto forte; È improbabile che le macchine intelligenti siano molto migliori.

Tuttavia, siamo preoccupati di come “premiare” l’intelligenza artificiale che non emergerà mai e ci siamo allontanati dai veri problemi che comprendiamo molto poco, che comprendiamo molto poco.

Questi problemi umani sono i problemi che siamo molto più pronti a risolvere e gestire oggi, invece di spendere del tempo ed energia sulla possibile situazione difficile delle macchine domani.

Alcuni di coloro che ci permetteranno di evitare di mancare di rispetto alle macchine e che le persone smettono follemente di fronte a insistere ChatbotLe macchine intelligenti non sono solo strane protoumumani, ma proprio come le macchine. O almeno, gli utenti programmati con la possibilità di dire agli utenti di lasciarsi soli e dire loro di smettere di disturbarli quando fanno una domanda in cui dovrebbero rispondere.

© The Financial Times Limited (2025). Tutti i diritti riservati. FT e Financial Times sono i marchi registrati del Financial Times Limited. Sono vietate riduzione, copia o modifiche. L’espansione è responsabile solo di questa traduzione e il Financial Times Limited non è responsabile della sua precisione.

Collegamento alla fonte