L’informatica quantistica e l’intelligenza artificiale un giorno potrebbero lavorare insieme
NESPIX/Shutterstock
I computer quantistici potrebbero eventualmente essere in grado di gestire alcune applicazioni di intelligenza artificiale che attualmente richiedono grandi quantità di potenza di calcolo convenzionale. Tali sviluppi forniranno un grande impulso all’apprendimento automatico e ad algoritmi simili di intelligenza artificiale.
I computer quantistici promettono di essere finalmente in grado di eseguire determinati calcoli impossibili per i computer convenzionali. Da anni i ricercatori dibattono se questi vantaggi rispetto ai computer tradizionali si estendano anche ai compiti che coinvolgono molti dati e agli algoritmi che apprendono da essi – in altre parole, all’apprendimento automatico che è alla base di molti programmi di intelligenza artificiale.
Ora, Hsin-Yuan Huang La società di calcolo quantistico Oratomic e i suoi colleghi sostengono che la risposta dovrebbe essere “sì”. Il suo lavoro matematico mira a gettare le basi per un futuro in cui i computer quantistici diano un impulso più ampio all’intelligenza artificiale.
“L’apprendimento automatico è davvero utilizzato ovunque nella scienza, nella tecnologia e nella vita di tutti i giorni. In un mondo in cui possiamo costruire questa architettura (informatica quantistica), penso che possa essere applicata ogni volta che sono disponibili set di dati su larga scala”, afferma.
Il lavoro del suo team affronta la questione chiave di come i dati raccolti nel mondo non quantistico, come i risultati delle recensioni di ristoranti o il sequenziamento dell’RNA, possano essere immessi in un computer quantistico in un modo che possa sfruttare in modo più efficiente la quanticità del computer per elaborare e apprendere dai dati.
Ciò richiede di mettere tutti i dati in uno “stato di sovrapposizione”, che è una combinazione matematica che non può essere creata in macchine non quantistiche. Ma fino ad ora i ricercatori credevano che questo compito sarebbe stato poco pratico. Questo perché presumevano che tutti i dati provenienti da quello stato di sovrapposizione avrebbero dovuto essere salvati in dispositivi di memoria dedicati prima di poter essere elaborati dal computer quantistico, ma quei dispositivi di memoria avrebbero dovuto essere incredibilmente grandi, dice il membro del team. haimeng zhao Al California Institute of Technology.
Huang e i suoi colleghi hanno adottato un approccio diverso che non richiede tali ricordi. Ciò comporta l’immissione di dati nel computer quantistico in piccoli lotti, senza la necessità di salvarli prima che possano essere elaborati, in modo simile allo streaming di un film invece di scaricarlo nella sua interezza prima di guardarlo.
Non solo hanno dimostrato che questo approccio potrebbe funzionare, ma che consentirebbe ai computer quantistici di elaborare più dati con costi di memoria inferiori rispetto a qualsiasi computer convenzionale.
In effetti, il vantaggio della memoria è così grande che un computer quantistico composto da circa 300 elementi costitutivi a prova di errore, chiamati qubit logici, supererebbe le prestazioni di un computer classico costruito utilizzando ogni atomo dell’universo osservabile, dice Zhao.
Probabilmente mancano anni alla costruzione di un computer quantistico con 300 qubit logici, ma Huang afferma che un computer da 60 qubit logici potrebbe potenzialmente essere costruito entro la fine del decennio. L’analisi del team mostra che, a queste dimensioni, ci sarebbe già un notevole vantaggio quantistico rispetto ai computer classici per alcuni compiti che comportano l’elaborazione di grandi set di dati e per i quali viene utilizzata l’intelligenza artificiale.
“La macchina quantistica è uno strumento molto potente, ma prima bisogna alimentarla. Questo studio parla di cibo e di come sia sufficiente caricare (dati) poco a poco, senza sovralimentare l’animale”, dice. Adrian Perez-Salinas All’ETH di Zurigo in Svizzera.
Tuttavia, afferma che molte domande devono ancora essere affrontate su come applicare il nuovo lavoro a dispositivi reali e dati del mondo reale. Alla fine è stato dimostrato che molti precedenti algoritmi di apprendimento automatico quantistico sono suscettibili di “dequantizzazione”, ovvero un processo in cui gli algoritmi sono stati ottimizzati per non richiedere alcun hardware quantistico pur mantenendo le loro eccellenti prestazioni. Sarà importante testare quanto sia importante la quantistica per questo nuovo algoritmo, afferma Pérez-Salinas.
Vedran Dunjko L’Università di Leida nei Paesi Bassi afferma che il nuovo lavoro potrebbe essere un buon abbinamento per grandi esperimenti scientifici come il Large Hadron Collider, dove milioni di gigabyte di dati vengono costantemente creati, ma la maggior parte viene scartata a causa della memoria insufficiente del computer.
Ma è probabile che solo alcune applicazioni di intelligenza artificiale esistenti e simili elaborazioni di dati saranno gestite con computer quantistici piuttosto che con un data center pieno di server tradizionali, dice. “Le GPU non sono la ragione principale per cui stiamo riscaldando il pianeta, ma potrebbero comunque essere importanti”, afferma Dunjko.
I ricercatori stanno ora lavorando all’espansione degli algoritmi per i quali il loro metodo potrebbe essere utile e all’ideazione di nuovi modi per configurare i computer quantistici che li renderebbero non solo con pochissima memoria ma anche abbastanza veloci da gestire i dati in tempo reale.
Soggetto:
- intelligenza artificiale/
- calcolo quantistico