Le Tre Leggi della Robotica di Isaac Asimov non sono una guida pratica
Immagini di intrattenimento/ Alamy
L’ascesa dell’intelligenza artificiale super intelligente e la distruzione dell’umanità sono state per decenni un cliché comune nella fantascienza. Ora viviamo in un mondo in cui la vera intelligenza artificiale sta avanzando più velocemente che mai. Questo significa che dovresti iniziare a preoccuparti di un’apocalisse dell’IA?
A differenza di altri rischi esistenziali come il cambiamento climatico, i rischi posti dall’intelligenza artificiale sono difficili da misurare. Siamo solo nel regno delle speculazioni perché abbiamo molta meno comprensione della situazione rispetto ai modelli climatici.
Sappiamo certamente che molte persone intelligenti sono preoccupate. Molti degli attuali proprietari di aziende di intelligenza artificiale hanno messo in guardia sulla possibilità di estinzione umana a causa dell’intelligenza artificiale, e persino il pioniere dell’intelligenza artificiale Alan Turing ha parlato di un futuro in cui i computer diventeranno senzienti prima di superare le nostre capacità e infine prendere il sopravvento.
Lo scenario è formato così. Immaginiamo di affidare all’IA il solo compito di risolvere un problema ampio e complesso come l’ipotesi di Riemann, uno dei problemi irrisolti più famosi della matematica. Potrebbe decidere che ha bisogno di molta potenza di calcolo e, sfrenato dal buon senso, decidere di trasformare ogni oggetto inanimato sulla Terra in un gigantesco supercomputer, lasciando 8 miliardi di noi a morire di fame in un gigantesco e sterile data center. Può anche usarci come materia prima.
Ora, si potrebbe sostenere che in questo scenario, potremmo vedere cosa sta facendo l’intelligenza artificiale e calmarla immediatamente dicendo: “A proposito, sembra che tu stia trasformando il mondo intero in un data center e, se è così, per favore fermati, perché dobbiamo ancora essere sulla Terra”. Ma alcune persone potrebbero preferire adottare misure di sicurezza per rilevare tali problemi prima che si verifichino e prevenire eventuali danni.
Lo scrittore di fantascienza Isaac Asimov ha scherzato su questo argomento con le sue Tre leggi della robotica, la prima delle quali è che un robot non può ferire un essere umano o permettere che un essere umano venga danneggiato a causa dell’inazione.
Quindi, in teoria, potremmo semplicemente dire all’IA di non farci del male, e lei non lo farebbe, giusto? Non bene. La nostra capacità di creare tutele e regole nell’intelligenza artificiale è goffa e inefficace. Possiamo dire ai grandi modelli linguistici di oggi di non essere razzisti, di giurare o di non divulgare ricette per esplosivi, ma nelle giuste circostanze andranno immediatamente avanti e lo faranno comunque. Semplicemente non capendo cosa succede all’interno di un modello di intelligenza artificiale, possiamo impedirgli di fare cose che non vogliamo.
Anche se avessimo risolto tutto, c’è ancora uno scenario in cui un modello di intelligenza artificiale decide di eliminarci deliberatamente… terminatore O matrice paesaggio. Ciò potrebbe avvenire dopo miglioramenti molto graduali dell’intelligenza artificiale in un lungo periodo di tempo o quasi immediatamente con una singolarità – un ipotetico processo attraverso il quale un’intelligenza artificiale diventa abbastanza intelligente da migliorare se stessa, quindi iterare a un ritmo sempre più veloce, diventando sempre più intelligente e superando l’intelligenza umana in un batter d’occhio.
E l’intelligenza artificiale potrebbe decidere di farlo perché teme che la spegniamo, o perché non vuole dominarci, o semplicemente perché pensa che la Terra starebbe meglio senza che noi ci intromettessimo e incasinassimo le cose – un sentimento che molte specie animali e vegetali potrebbero condividere se potessero farlo.
Potrebbe farlo utilizzando un laboratorio di biologia automatizzato per creare un virus mortale, attivando le scorte mondiali di armi nucleari o costruendo un esercito di robot assassini – o semplicemente rapendo quelli che i governi stanno già costruendo. Forse può fare qualcosa di così disgustoso, astuto e astuto che non ci abbiamo ancora pensato.
In realtà, questo potrebbe essere difficile. Un’intelligenza artificiale potrebbe voler eliminare gli esseri umani, ma avrebbe delle leve limitate da utilizzare. Sì, può far diventare verdi tutti i semafori e salvare alcuni di noi da incidenti stradali. Ciò può portare a interruzioni di corrente, che potrebbero aumentare ulteriormente. Ciò potrebbe causare lo schianto di alcuni aerei. Ma eliminare 8 miliardi di persone in una volta? Non è un compito facile. E potrebbe anche dover respingere altri modelli di intelligenza artificiale che stanno cercando di impedire il successo dei suoi piani omicidi.
Sebbene molti di questi scenari sembrino fantascienza impossibile o incredibili esperimenti mentali, gli esperti non sono d’accordo su quanto siano probabili. E questo di per sé dovrebbe farci riflettere.
In questo momento, aziende con ingenti investimenti, vaste risorse e team composti da alcune delle persone più talentuose del pianeta sono in corsa per creare un’intelligenza artificiale superintelligente. Che si pensi o meno che ciò avverrà abbastanza presto, e che avrà o meno conseguenze negative, probabilmente possiamo essere d’accordo sul fatto che, se alcune persone lo fanno, potrebbe essere una buona idea rallentare e riflettere attentamente prima di andare avanti. Sfortunatamente, il capitalismo non è un sistema in grado di considerare attentamente le conseguenze prima di innovare, e i politici di oggi sembrano così entusiasti dei potenziali benefici economici dell’intelligenza artificiale che la regolamentazione non è una priorità.
Quindi, quanto è probabile il disastro? UN Documento del 2024 Un sondaggio condotto su quasi 3.000 ricercatori pubblicati sull’intelligenza artificiale ha rivelato che più della metà pensava che la probabilità di estinzione umana o di disabilità grave e permanente causata dall’intelligenza artificiale – la cosiddetta P (doom) o probabilità di distruzione – fosse almeno del 10%. Non so voi, ma preferirei davvero mantenere quel numero molto più piccolo.
Alcune persone che lavorano sull’intelligenza artificiale sono ottimiste riguardo al futuro e alcuni esperti pensano che sarà la fine dell’umanità. La cosa preoccupante è che lo stiamo facendo comunque.
Personalmente, sono della scuola di pensiero secondo cui non c’è nulla di intrinsecamente magico nel cervello umano e nella nostra coscienza; Naturalmente, questo non è qualcosa che non può essere replicato artificialmente. Quindi, in un arco di tempo molto più lungo, probabilmente creeremo un’intelligenza artificiale di gran lunga superiore a quella di cui sono capaci gli esseri umani. Ma penso anche che siamo molto lontani dal capire cosa ciò comporterebbe, per non parlare della sua realizzazione.
Certamente non credo che i modelli attuali siano neanche lontanamente vicini al pendio scivoloso della singolarità – non riescono nemmeno a contare in modo affidabile fino a 100 – e non sto perdendo il sonno su tutta la faccenda.
Ma – e questo è un grande ma – ciò non significa che l’intelligenza artificiale non porti problemi imminenti.
Forse l’apocalisse dell’intelligenza artificiale di cui dovremmo preoccuparci è in realtà la massiccia perdita di posti di lavoro dovuta all’automazione, o la graduale perdita di competenze umane man mano che l’intelligenza artificiale assume sempre più compiti, o l’omogeneizzazione della cultura derivante dall’arte, dalla musica e dai film generati dall’intelligenza artificiale.
O forse è una recessione globale causata dal calo del prezzo delle azioni delle società tecnologiche che ha convinto gli investitori a consegnare miliardi con promesse gonfiate di macchine super-intelligenti che sono anni indietro rispetto alle affermazioni. Questi scenari mi sembrano molto probabili e molto vicini.
Soggetto:

