La maggior parte delle persone non si rende conto della profonda minaccia che l’intelligenza artificiale rappresenterà presto agenzia umana. Un ritornello comune è questo “L’intelligenza artificiale è solo uno strumento” E come ogni strumento, i suoi benefici e i suoi pericoli dipendono da come le persone lo utilizzano. Questo è un modo di pensare della vecchia scuola. L’intelligenza artificiale sta effettuando la transizione gli strumenti che utilizziamo con le protesi che indossiamo. Questo creerà nuove minacce significative Non siamo ancora preparati per questo.

No, non sto parlando di inquietanti impianti cerebrali. Queste protesi basate sull’intelligenza artificiale saranno prodotti tradizionali che acquistiamo da Amazon o dall’Apple Store e commercializziamo con nomi amichevoli come “assistenti”, “allenatori”, “copiloti” e “insegnanti”. Aggiungeranno un valore reale alle nostre vite; tanto che ci sentiremo svantaggiati quando gli altri li indossano e noi no. Ciò creerà una rapida pressione per l’adozione di massa.

I dispositivi protesici di cui ho parlato sono “L’intelligenza artificiale ha supportato i prodotti indossabili“Come occhiali intelligenti, pendenti, spille e cuffie. La tua IA indossabile vedrà ciò che vedi e sentirà ciò che senti, tenendo traccia di dove sei, cosa stai facendo, con chi sei e cosa stai cercando di realizzare. Quindi, senza che tu debba dire una parola, questi aiuti mentali sussurrare consigli Guida le tue orecchie o davanti ai tuoi occhi.

La differenza tra un dispositivo e una protesi può sembrare sottile, ma Implicazioni per l’azione umana è profondo. Ciò si comprende meglio attraverso una semplice analisi di input e output. Uno strumento riceve input umani e produce output amplificati. Uno strumento può renderci più forti, più veloci o permetterci di volare. Una protesi mentale, d’altro canto, crea un ciclo di feedback attorno all’essere umano, accettando input dall’utente (monitrando le sue azioni e coinvolgendolo in una conversazione) e impressionare immediatamente opinione dell’utente.

Questo ciclo di feedback cambia tutto. Questo perché i dispositivi di intelligenza artificiale indossati sul corpo possono monitorare il nostro comportamento e le nostre emozioni e utilizzare questi dati per: convincerci Non è nel nostro interesse credere a cose che non sono vere, comprare cose di cui non abbiamo bisogno o avere opinioni che altrimenti riconosceremmo. Questo si chiama Problema di manipolazione dell’intelligenza artificialeE non siamo pronti per i rischi. Questo è un problema urgente perché le grandi tecnologie stanno correndo per portare questi prodotti sul mercato.

Perché i cicli di feedback sono così pericolosi?

Nel mondo di oggi, tutti i dispositivi informatici vengono utilizzati per fornire un impatto mirato per conto degli sponsor paganti. I prodotti AI indossabili probabilmente continueranno questa tendenza. Il problema è che questi dispositivi possono essere facilmente chiamati “obiettivo di impatto” e hanno il compito di adattare le loro tattiche di conversazione per ottimizzare il loro impatto sull’utente, superando ogni resistenza che rilevano. effetto mirato dalle sciocchezze dei social media ai missili a ricerca di calore che aggirano abilmente le tue difese. Tuttavia, i policy maker non sono ancora consapevoli di questo rischio.

Sfortunatamente, la maggior parte dei regolatori vede ancora il pericolo dell’intelligenza artificiale in termini di capacità di generare rapidamente forme di influenza tradizionali (deepfakes, fake news, propaganda). Naturalmente, queste sono minacce significative, ma non sono così pericolose. effetto interattivo e adattivo questo potrebbe essere ampiamente diffuso attraverso agenti conversazionali, soprattutto perché gli agenti di intelligenza artificiale viaggiano con noi per tutta la vita all’interno di dispositivi indossabili.

Questo arriverà presto

Meta, Google e Apple stanno facendo a gara per lanciare prodotti AI indossabili il più rapidamente possibile. Per proteggere il pubblico, i politici devono abbandonare il quadro dell’”uso degli strumenti” nel regolamentare i dispositivi di intelligenza artificiale. Questo è difficile perché la metafora della guida risale a 35 anni fa, quando Steve Jobs descrisse in modo colorito il computer come “bicicletta della mente.” La bicicletta è uno strumento potente che mantiene il ciclista saldamente sotto controllo. L’intelligenza artificiale indossabile capovolgerà questa metafora, facendoci chiedere chi guida la bicicletta. Sono gli esseri umani, gli agenti di intelligenza artificiale che sussurrano alle orecchie umane o le aziende che utilizzano agenti? Credo che sarebbe un pericoloso mix di tutti e tre.

Probabilmente anche gli utenti si fideranno di esso. Voci dell’intelligenza artificiale nelle loro teste più di quanto dovrebbe essere. Questo perché questi agenti IA ci forniranno consigli e informazioni utili durante tutta la nostra vita quotidiana; ci istruirà, ci ricorderà, ci istruirà, ci informerà. Il problema è che potremmo non renderci conto che l’agente AI ha spostato il suo obiettivo dall’aiutarci all’influenzarci. Puoi guardare il pluripremiato cortometraggio per capire la differenza. Perdita di privacy (2023) sui pericoli dei dispositivi indossabili abilitati all’intelligenza artificiale. Ciò è particolarmente vero quando i dispositivi includono funzionalità invasive come il riconoscimento facciale (che Secondo quanto riferito, Meta è stata aggiunta agli occhiali).

Cosa possiamo fare per proteggere la società?

Prima di tutto, i politici devono rendersi conto che l’intelligenza artificiale conversazionale consente: una forma di media completamente nuova un approccio interattivo, adattabile, individualizzato e sempre più consapevole del contesto. Questa nuova forma di media funzionerà come “influenza attiva” perché sarà in grado di adattare le proprie tattiche in tempo reale per superare la resistenza degli utenti. Se applicati ai dispositivi indossabili, questi sistemi di intelligenza artificiale possono essere progettati per manipolare le nostre azioni, influenzare le nostre opinioni e le nostre convinzioni. dialogo apparentemente casuale. Quel che è peggio, col tempo questi agenti impareranno quali tattiche di conversazione funzioneranno meglio per ciascuno di noi a livello personale.

La verità è che gli intermediari conversazionali non dovrebbe essere consentito loro di creare cicli di controllo intorno agli utenti. Se questo non verrà regolamentato, l’intelligenza artificiale potrà influenzarci con la sua capacità persuasiva sovrumana. Anche agenti di intelligenza artificiale Obbligatorio informare gli utenti quando passano alla fornitura di contenuti promozionali per conto di terzi. Senza tali protezioni, gli agenti di intelligenza artificiale diventeranno probabilmente così persuasivi da far sembrare bizzarre le attuali tecniche di influenza mirata.

Louis Rosenberg è un pioniere della realtà aumentata e ricercatore di lunga data sull’intelligenza artificiale. Ha conseguito il dottorato a Stanford, è stato professore alla California State University e ha scritto diversi libri sui pericoli dell’intelligenza artificiale, tra cui Arrival Mind e Our Next Reality.

Collegamento alla fonte