Dwight Ellefsen/FPG/Archivio

regole di pensiero
Tom Griffiths, William Collins (Regno Unito) Macmillan (Stati Uniti)

Da quasi 70 anni i ricercatori cognitivi combattono una guerra civile. Da un lato c’è il computazionalismo, che sostiene che l’intelligenza può essere meglio spiegata da regole, simboli e logica che possono essere espressi in equazioni. Dall’altro lato c’è il connessionismo, dove l’intelligenza emerge da vaste reti connesse basate sui neuroni del cervello, e nessun singolo componente è intelligente, ma in qualche modo l’intero sistema è intelligente.

Quella battaglia ha plasmato tutto, dalle scienze cognitive all’intelligenza artificiale che sta ora trasformando l’economia globale. Questo mese due nuovi libri provengono da direzioni opposte. Per me, la cosa migliore è Leggi del pensiero: esplorare la teoria matematica della mente. In esso, il professore di Princeton Tom Griffiths ripercorre il lungo sforzo di formalizzare il pensiero in leggi matematiche e spiega perché l’intelligenza artificiale moderna è così com’è – e cosa potrebbe riservare il futuro.

Griffith costruisce la storia attorno a tre modi matematici concorrenti e sempre più intrecciati di formalizzare le idee: regole e simboli, reti neurali e probabilità. Il primo considera il pensare come una soluzione di problemi: suddividere un compito in obiettivi e sotto-obiettivi, quindi affrontarlo con passaggi formali. Ciò ha guidato la prima intelligenza artificiale, ma ha anche mostrato perché è così difficile reprimere il buon senso umano: le regole che un’intelligenza artificiale deve seguire si trasformano presto in milioni di requisiti.

Le reti neurali scambiano regole esplicite per imparare dagli esempi, costruendo intelligenza a partire da molte unità semplici le cui interazioni producono comportamenti complessi. È così che funzionano gli esseri umani, ma la probabilità e la statistica aggiungono una terza componente: l’incertezza. Il cervello non ha accesso a informazioni perfette e parte di ciò che ci rende umani è il modo in cui valutiamo le prove e aggiorniamo le nostre convinzioni.

Per Griffith nessuno dei tre quadri è sufficiente. Un resoconto realistico dell’intelligenza, sia umana che meccanica, unirà tutti e tre. Egli espone il suo caso storicamente, osservando come gli esseri umani hanno tentato di mappare i processi della mente utilizzando matematica, registrazioni e interviste con i ricercatori. Di conseguenza, il suo libro è dettagliato e coinvolgente, anche se un po’ difficile.

I neuroscienziati Gaurav Suri e Jay McClelland hanno adottato un approccio diverso Il cervello emergente: come nasce l’intelligenza nelle persone e nelle macchineIn cui sostengono che la mente è una proprietà emergente di reti interagenti di neuroni biologici o artificiali che possono generare pensieri, emozioni e giudizi. Si basa sulla storia di McClelland come pioniere del connessionismo.

Entrambi i libri offrono spunti interessanti e contraddittori sulla rivoluzione dell’intelligenza artificiale generica. Per Griffith, un modello linguistico più ampio (LLM) conferma la sua visione ibrida: è impressionante, ma ha allucinazioni e inciampa, e avrebbe bisogno di uno strato simbolico per farlo bene. Per Suri e McClelland lo stesso LLM è una conferma: è sorprendente quanta logica sia emersa solo dalla rete.

problema con mente emergente Questa non è la sua tesi, ma piuttosto il suo modo di esprimersi, poiché il tono cambia tra frasi popolari e volgari. La matematica e la scienza sono sempre state difficili da spiegare e nessun libro forniva una soluzione completa. regole di pensiero Ci si avvicina perché descrivere la storia dell’IA significa concentrarsi su ciò che ciascun framework può spiegare e ciò che non può spiegare.

mente emergente Un manifesto più provocatorio è che gli autori non vedono barriere fondamentali verso un’intelligenza artificiale più autonoma e orientata agli obiettivi che emerge da un’architettura puramente neurale. Di conseguenza, potrebbe sembrare meno radicato nella realtà.

Tuttavia, il libro di Griffiths offre una comprensione più approfondita dei “linguaggi” di cui disponiamo per descrivere le idee e del motivo per cui in futuro potrebbero verificarsi sovrapposizioni disorganizzate.

Quel futuro potrebbe anche segnare la pace tra i due campi?

Altri due grandi libri sull’intelligenza artificiale

Nuovi scienziati. Notizie scientifiche e articoli di lunga lettura di giornalisti esperti che coprono gli sviluppi della scienza, della tecnologia, della salute e dell'ambiente sul sito web e sulla rivista.

algoritmi per vivere
Di Brian Christian e Tom Griffiths

Si tratta di un tour vivace e non tecnico su come le idee derivate dall’informatica possono illuminare le decisioni quotidiane, compreso come un approccio algoritmico può migliorare il processo decisionale umano. È stato scritto insieme a Griffiths un decennio prima della rivoluzione ChatGPIT, ma rimane rilevante.

Nuovi scienziati. Notizie scientifiche e articoli di lunga lettura di giornalisti esperti che coprono gli sviluppi della scienza, della tecnologia, della salute e dell'ambiente sul sito web e sulla rivista.

L’intelligenza artificiale viene riavviata
Costruire un’intelligenza artificiale di cui possiamo fidarci
Di Gary Marcus e Ernest Davis

Questo libro sostiene che le attuali reti neurali possono essere efficaci ma fragili. Ciò giustifica la tesi dei sistemi ibridi che traggono forza da un approccio basato su regole e simboli, uno dei tre quadri matematici contenuti nel nuovo libro di Griffith.

Chris Stokell-Walker è uno scrittore di tecnologia con sede a Newcastle upon Tyne, Regno Unito

Collegamento alla fonte