David Dalrymple, una figura di spicco dell’agenzia governativa di ricerca scientifica, afferma che le persone dovrebbero preoccuparsi del fatto che i robot di sicurezza non stanno al passo con lo sviluppo.

Il mondo “potrebbe non avere il tempo” di proteggere l’umanità da una presa di potere mondiale da parte di sistemi di intelligenza artificiale in stile Terminator, ha avvertito un alto funzionario.

David Dalrymple, una figura di spicco dell’agenzia governativa di ricerca scientifica, ha affermato che le persone dovrebbero essere preoccupate per il crescente potenziale della tecnologia.

I robot saranno in grado di svolgere “tutti i compiti che possono svolgere gli esseri umani”, “ma in un modo migliore”, ha affermato.

L’umanità diventerà “competitiva” in ogni area necessaria per “mantenere il controllo sulla nostra civiltà, società e pianeta”.

Dalrymple, direttore del programma dell’agenzia ARIA ed esperto di sicurezza IA, ritiene che entro cinque anni avverrà un’acquisizione in stile Terminator.

Ha detto: “Penso che dovremmo preoccuparci dei sistemi che possono fare tutte le cose che fanno gli esseri umani per funzionare nel mondo, ma in un modo migliore.

“Perché rimarremo indietro in tutte le aree in cui dobbiamo essere efficaci per mantenere il controllo sulla nostra civiltà, società e pianeta”.

Dalrymple ha affermato che esiste un divario nella comprensione tra il settore pubblico e le società di intelligenza artificiale riguardo al potere delle innovazioni imminenti nella tecnologia.

Ha detto: “Vorrei avvisare che le cose si stanno muovendo molto velocemente e da un punto di vista della sicurezza potremmo non avere il tempo di anticiparli.

“E non è fantascienza prevedere che entro cinque anni i compiti economicamente più preziosi saranno svolti da macchine con un livello di qualità più elevato e a costi inferiori rispetto agli esseri umani.”

Dalrymple ritiene che i robot saranno in grado di automatizzare l’intero lavoro quotidiano di ricerca e sviluppo entro la fine dell’anno.

Ciò “accelererà ulteriormente le capacità” poiché la tecnologia sarà in grado di auto-migliorarsi.

L’esperto, che sta sviluppando misure di salvaguardia per l’uso dell’intelligenza artificiale nelle infrastrutture critiche come le reti energetiche, ha affermato che i governi non dovrebbero dare per scontato che tutti i sistemi progettati dai giganti della tecnologia siano sicuri.

“Non possiamo presumere che questi sistemi siano affidabili”, ha affermato.

“Date le pressioni economiche, è improbabile che la scienza possa realizzare questo obiettivo in tempo.

“Quindi la cosa migliore che possiamo fare, e che potremmo riuscire a fare in tempo, è controllare e minimizzare gli aspetti negativi”.

Se i progressi tecnologici supereranno quelli della sicurezza, ha affermato, ciò porterà alla “destabilizzazione della sicurezza e dell’economia”.

“Sto lavorando per cercare di migliorare le cose, ma è un rischio troppo grande e la civiltà umana nel suo insieme sta attraversando questa transizione.”

Questo mese l’AI Safety Institute del governo – alias AISI – ha affermato che le capacità dei modelli avanzati di intelligenza artificiale stanno “rapidamente migliorando” in tutti i settori e che le prestazioni in alcune aree raddoppiano ogni otto mesi.

I modelli di punta riescono a completare le attività di livello tirocinante il 50% delle volte, in aumento del 10% rispetto allo scorso anno.

L’AISI ha inoltre scoperto che i sistemi più avanzati possono completare in modo indipendente compiti che richiederebbero a un esperto umano più di un’ora.

L’istituto ha anche testato l’autoreplicazione, un grave problema di sicurezza perché coinvolge un sistema che diffonde copie di se stesso su altri dispositivi e diventa più difficile da controllare.

I test hanno dimostrato che i due modelli leader hanno raggiunto percentuali di successo superiori al 60%.

Collegamento alla fonte