Le macchine sono diventare intelligenti degli umani?

CHAN2545/ISTockPhoto/Getty Images

Se prendi i leader delle aziende di intelligenza artificiale sulla tua parola, i loro prodotti significano che il prossimo decennio sarà opposto nella storia umana: un’era d’oro di “abbondanza radicale”, dove c’è “aratro” ad alta energia “e vediamo l’inizio dello spazio sub-sub-site. Ma i ricercatori che lavorano con i più potenti sistemi di intelligenza artificiale di oggi stanno ottenendo una realtà diversa, con i migliori modelli che non riescono anche a risolvere gli enigmi di base che hanno tritato la maggior parte degli umani, mentre la promessa di AI può “causare”. Allora, a chi dovresti credere?

Sam Altman e Demis Hasabis, CEO di Openai e Google DipMind, entrambi rispettivamente, hanno fatto recenti affermazioni secondo cui i potenti sistemi di intelligenza artificiale convertiti dal mondo sono proprio dietro l’angolo. In Un post sul blogAltman scrive che “è probabile che la probabilità degli 2030s separasse da qualsiasi momento, che è arrivato prima”, indovinando che possiamo “andare a un grande successo scientifico materiale il prossimo anno per interfacce cerebrali ad alta larghezza di banda per un anno da un anno”.

Marito Intervista con FiloHa anche affermato che negli anni ’30, l’intelligence generale artificiale (AGI) inizierebbe a risolvere problemi come “curare le malattie terribili”, rendendo “una vita molto sana e più lunga”, nonché nuove fonti energetiche. “Se tutto ciò accade”, ha detto Hasbis nell’intervista, “quindi dovrebbe essere un’era del massimo volo umano, dove viaggiamo a stelle e coloniamo la galassia”.

Questa visione dipende molto dall’idea che i modelli linguistici di grandi dimensioni (LLM) diventi più capaci che lanciamo più dati di allenamento e potenza del computer su di essi. Questa “legge di ridimensionamento” è corretta negli ultimi anni, ma ha indicato Falcable. Ad esempio, il recente modello GPT-4.5 di Openi, che dovrebbe costare centinaia di crores di dollari nel treno, ha ottenuto solo un leggero miglioramento del suo predecessore GPT-4. E questo costo non è nulla in confronto alle spese future, con i rapporti con i rapporti Meta sta per annunciare un investimento di $ 15 miliardi Nel tentativo di ottenere “sovrintendente”.

Il denaro non è l’unico tentativo di questo problema, tuttavia: le aziende di intelligenza artificiale hanno anche convertito nel modello di “ragionamento” come O1 di Openai, che è stato rilasciato l’anno scorso. Questi modelli utilizzano più tempi di calcolo e quindi impiegano più tempo per produrre una risposta, alimentando il proprio output in se stessi. Questo processo di ricorrenza è etichettato “catena-off-tre”, nel tentativo di confrontare con il modo in cui una persona può pensare attraverso i problemi. “C’erano validi motivi per essere preoccupati per l’AI Plateau”, ha detto Noam Brown in Openai Nuovo scienziato L’anno scorso, ma O1 e modelli come ciò significavano che la “legge di ridimensionamento” potrebbe continuare, ha sostenuto.

Tuttavia, recenti ricerche hanno scoperto che questi modelli logici possono anche inciampare su semplici enigmi di argomenti. Ad esempio, ricercatore su Apple Zucchero testato Il modello di ragionamento dell’azienda AI Deepsek e del modello di pensiero cloud dell’antropico, che agisce come il modello di O1-Family di OpenAI. I ricercatori hanno scoperto di avere “confini in calcoli accurati: non riescono a utilizzare algoritmi chiari e cause incoerente nei puzzle”, hanno scritto i ricercatori.

Il team ha testato l’intelligenza artificiale su diversi enigmi, come un paesaggio in cui una persona deve trasportare gli oggetti attraverso un fiume con il numero più basso, e la torre di Hanoi, una partita in cui dovresti prendere un anello tra i tre poli senza un piccolo anello. Sebbene i modelli possano risolvere gli enigmi nelle loro impostazioni più facili, hanno lottato per aumentare il numero di anelli o oggetti per il trasporto. Mentre passeremmo più tempo a pensare a un problema più complesso, i ricercatori hanno scoperto che i modelli di intelligenza artificiale utilizzavano meno “token” – frammentazione di informazioni – come la complessità dei problemi aumentati, suggerendo che i modelli mostrati dal “pensiero” sono un’illusione.

“La parte dannosa è che questi sono compiti facilmente risolti”, afferma Artur Garsz In città, l’Università di Londra. “Sapevamo già 50 anni fa come usare argomenti di intelligenza artificiale simbolica per risolverli”. È possibile che questi nuovi sistemi possano essere fissati e alla fine in grado di discutere attraverso problemi complessi, ma dimostra la ricerca che è improbabile che il modello aumenti o sia puramente attraverso le risorse computazionali che loro sono state fornite loro, afferma Garsage.

È anche un promemoria che questi modelli fanno ancora fatica a risolvere gli scenari che non hanno visto al di fuori dei loro dati di allenamento, Nicos Altras Alla Sheffield University. “In realtà funzionano abbastanza bene in molti casi, come la ricerca, la scontrarsi con le informazioni e poi riassunti, ma questi modelli sono stati addestrati a fare questi tipi di cose e questa magia appare, ma non così – sono stati addestrati a farlo”, afferma Elatraas. “Ora, penso che ci sia un posto cieco nella ricerca di Apple.”

Nel frattempo, altre ricerche stanno dimostrando che l’aumento del tempo di “pensiero” può effettivamente danneggiare le prestazioni del modello AI. Soumya Suvara Ghosal E i suoi colleghi dell’Università del Maryland hanno testato il modello di Deepsak e hanno scoperto che le procedure a lungo termine “di idee” Test di argomento calcolare ridotto di precisioneAd esempio, per un punto di riferimento matematico, ha scoperto che inciampare la quantità di token utilizzati da un modello potrebbe aumentare le sue prestazioni di circa il 5 percento. Ma usando diversi token da 10 a 15 volte, ha nuovamente lasciato cadere il punteggio di riferimento a circa il 17 percento.

In alcuni casi, sembra essere emesso “serie di idee” create da un’intelligenza artificiale che ha pochissime relazioni per la risposta finale. Quando? Testare il modello di DeepSac sulla semplice capacità di navigazione di labirinti, Subbarao comunista L’Arizona State University e i suoi colleghi hanno scoperto che quando l’IA ha risolto il problema, la sua uscita “serie” ha avuto errori che non si sono riflessi nella soluzione finale. Inoltre, l’IA può davvero ottenere risposte migliori alimentando una “serie di pensieri” insignificanti.

“I nostri risultati sfidano la percezione prevalente che i token intermedi o la” serie di idee “possano essere piuttosto un segno di argomento interno del modello AI, e quindi può essere cauto contro l’umanista”, afferma Kanghampati.

In effetti, tutti gli studi mostrano che le etichette “pensiero” o “logica” sono un nome falso per questi modelli di intelligenza artificiale, Anna Rogers All’università IT, Copenaghen in Danimarca. “Finché ho vissuto in questo campo, ogni tecnica popolare che posso pensare che la prima sia stata ipnotizzata con una vaga analogia dominata cognitiva, che (era) alla fine si è dimostrata sbagliata.”

Andres Vlachos All’Università di Cambridge afferma che LLM ha ancora chiare applicazioni nella produzione di lezioni e in altre opere, ma le ultime ricerche dimostrano che possiamo lottare per affrontare problemi così complessi ogni volta che Altman e Hasbis hanno promesso che saremo risolti tra qualche anno.

“Fondamentalmente, questi modelli sono addestrati a fare, il che è un non corrispondente tra la previsione della parola successiva, mentre stiamo cercando di farli, per produrre argomenti, per produrre logica”, afferma Vlachos.

Sebbene Openi non sia d’accordo. “Il nostro lavoro suggerisce che argomenti di argomenti come la catena-off-tre possono migliorare notevolmente le prestazioni su problemi complessi e stiamo attivamente lavorando per espandere queste abilità attraverso una migliore formazione, valutazione e progettazione del modello”, afferma un portavoce. Deepsek non ha risposto alla richiesta delle osservazioni.

Soggetto:

Collegamento alla fonte