Non sta per decidere o consigliare AI che questi strumenti sono intrinsecamente pericolosi per tutti. Milioni di persone usano AI ausiliario per codifica, scrittura e cervello senza eventi ogni giorno. Il problema è associato a utenti specifici e deboli, modelli di linguaggio di grandi dimensioni psicopantici e circuiti di reazioni dannose.

Una macchina che viene utilizzata nel liquido linguistico, la vista con incisione e instancabilmente è una sorta di pericolo che non è mai stato affrontato nella storia dell’umanità. La maggior parte di noi probabilmente ha difese congenite contro Herfer: facciamo domande, quando qualcuno concorda troppo e riconosce i imbrogli. Per molte persone, queste difese funzionano bene anche con l’IA e possono mantenere un sano dubbio sulla produzione di chatboat. Tuttavia, queste difese possono essere meno efficaci nei confronti di un modello di intelligenza artificiale che non ha intenzione di rilevare, nessuna personalità specifica come la lettura, non dice a nessuna osservazione biologica. Un LLM può svolgere qualsiasi ruolo, duplicare qualsiasi personalità e scrivere una finzione con la stessa facilità con cui la verità.

A differenza di un tradizionale database di computer di calcolo, un modello di lingua AI non recupera le informazioni memorizzate; Ripristina le connessioni tra idee. Dando la responsabilità di completare l’input di un utente chiamato “prompt”, questi modelli generano un testo statisticamente encomiabile in base al processo di formazione iniziale e successivamente alimentati con i dati sulle loro reti neurali (libri, commenti su Internet, trascrizione di YouTube) durante la sottile punta. Quando digiti qualcosa, il modello risponde al tuo contributo in modo tale che la trascrizione di una conversazione sia completata in modo coerente ma senza alcuna verità o falsità affidabile.

Inoltre, l’intera conversazione diventa parte di ciò che viene alimentato nel modello ancora e ancora quando lo contatti, quindi qualunque cosa tu faccia con esso dà la forma di ciò che ne viene, creando un ciclo di reazione che riflette le tue idee e migliora. Il modello che dici nelle reazioni non ha veri ricordi del modello e la sua rete neurale non memorizza informazioni su di te. Ogni volta che sei connesso alla conversazione, reagisce solo a un prompt di recente crescita. Qualsiasi assistente di intelligenza artificiale “memoria” ti tiene parte del prompt di input, alimentando il modello con un materiale software separato.

Collegamento alla fonte