La codifica delle vibrazioni potrebbe farti ripensare all’intelligenza artificiale

Flavio Coelho/Getty Images

È innegabile che il lancio di ChatGPT sia stato un evento storicamente significativo, ma è perché è stato il primo grande passo verso un futuro superintelligente o perché è stato l’inizio di un mondo pieno di venditori di olio di serpente IA? Ho pensato a lungo che la tecnologia alla base dei grandi modelli linguistici, i chatbot basati sull’intelligenza artificiale, sia affascinante ma imperfetta, il che mi colloca saldamente nel campo dell’olio di serpente. Ma una settimana trascorsa a codificare le vibrazioni ha rivelato qualcosa di sorprendente: sia i sostenitori che gli scettici hanno torto.

Per prima cosa, lasciatemi spiegare. La codifica delle vibrazioni, se non hai familiarità, è un termine coniato circa un anno fa da Andrzej Karpathy, un ricercatore di intelligenza artificiale che ha co-fondato e precedentemente ha lavorato presso OpenAI. Questo si riferisce al processo di sviluppo del software “vibrando” con un modello di intelligenza artificiale, fornendogli istruzioni in un linguaggio semplice e consentendogli di generare codice vero e proprio. Recentemente, ho visto persone dire che gli strumenti più recenti – i codec Cloud Code e ChatGPT – sono diventati sorprendentemente bravi nella codifica, come in un estratto da New York Times Argomento “L’interruzione dell’IA che stavamo aspettando è arrivata“.

Ho deciso di sperimentare questi strumenti e sono rimasto stupito dai risultati. In pochi giorni, con un’esperienza di programmazione limitata, ho creato app utili a livello personale come un selezionatore di audiolibri che controlla cosa è disponibile nella mia biblioteca locale e un’app combinata per fotocamera e gobbo che funziona sul mio telefono.

Potrebbe sembrarti noioso, e va assolutamente bene, per ragioni che spiegherò più avanti. Ciò che è importante qui è che questo processo mi ha visto impegnarmi più profondamente con prodotti come ChatGPT di quanto avessi mai fatto prima. In passato, ho sperimentato un po’, mi sono sentito frustrato dalla scrittura generica, dal servilismo o dai risultati di ricerca errati e sono rimbalzato. Per questi nuovi progetti di codifica, il mio uso prolungato mi ha fatto realizzare qualcosa che non avevo mai realizzato prima: il modo in cui viene prodotto LLM crea una macchina che sono destinato a odiare.

Pochissimi di noi sono stati esposti al LLM “grezzo”, ovvero un modello statistico che è stato addestrato su un’ampia raccolta di dati per produrre un testo rappresentativo in modo affidabile. Invece, la maggior parte di noi utilizza una tecnologia che è stata mediata attraverso un processo chiamato apprendimento per rinforzo dal feedback umano (RLHF). Le aziende di intelligenza artificiale utilizzano esseri umani per valutare il testo prodotto da LLM grezzi, premiando le risposte ritenute sicure, utili e coinvolgenti, penalizzando al contempo contenuti dannosi o risposte che potrebbero scoraggiare la maggior parte degli utenti dall’interagire con i loro prodotti.

Questo è il processo RLHF che produce la comune “voce chatbot” con cui probabilmente hai familiarità. È un processo basato sui valori intrinseci del creatore, dall’atteggiamento generale della Silicon Valley “muoviti velocemente e rompi le cose” all’ideologia più tipica infusa da Elon Musk del controverso chatbot di X Grok.

Attualmente è molto difficile fare in modo che un chatbot esprima incertezza, contraddica l’utente o impedisca il progresso. Ciò è diventato più evidente per me quando ho riscontrato un problema insolubile con il mio gobbo. Stavo cercando di creare un’app che sovrapponesse il testo all’app della fotocamera esistente, supponendo che sarebbe stato più semplice che costruire una fotocamera da zero, ma il codice che ChatGPT stava generando non è riuscito. Ha ripetutamente suggerito miglioramenti e mi ha esortato a portare avanti il ​​progetto. È stato allora che ho capito che le complessità del sistema operativo Android, con cui non ti annoierò, significavano che sarebbe stato molto più semplice creare un’app all-in-one. Non appena ho chiesto a ChatGPT di crearlo, ha funzionato immediatamente.

Imparando da ciò, ho iniziato a istruire ChatGPT a mettere costantemente in discussione se stesso e me. Ho invitato ad un cauto scetticismo. “Jacob vuole che l’impostazione predefinita sia supportare l’analisi basata sull’evidenza: evitare l’estrapolazione, contrassegnare chiaramente l’evidenza rispetto all’evidenza e preferire dichiarare l’incertezza o attendere fino a quando l’utente non chiede speculazioni,” Questo è uno degli schemi (generati da me) che ho impresso nella sua memoria. In altre parole, ho creato un modello appositamente progettato per funzionare con il mio profilo psicologico, rimuovendo attentamente i valori di OpenAI e sostituendoli con i miei.

Non è completo. È molto difficile per gli LLM combattere la loro formazione RLHF e l’impostazione predefinita continua a filtrare. Ma significa che ora ho uno strumento che funge da specchio cognitivo alquanto utile. Non l’ho utilizzato per scrivere questo articolo, perché il suo stile di scrittura è ancora troppo lento e perché nuovi scienziatiCerto, ci sono regole rigide contro la copia generata dall’intelligenza artificiale, ma l’ho usata per pensare a questo articolo. Mi sono rivolto al mio specchio cognitivo per esaminare argomenti e controargomentazioni, respingendo molte delle sue conclusioni come false o spurie. Ne ho capito il valore, ma ha richiesto cura e lavoro, non lasciare che l’intelligenza artificiale facesse il lavoro pesante. La cosa importante è che il mio cervello fosse sempre pienamente attivo.

Ciò mi porta a rafforzare la conclusione a cui ero già giunto: interagire con l’output dell’intelligenza artificiale di qualcun altro è, in quasi tutti i casi, funzionalmente inutile. Non è possibile ottenere nulla dal testo generato dall’intelligenza artificiale che non sarebbe meglio ottenere fornendo suggerimenti all’intelligenza artificiale stessa. Continuo inoltre a rifiutare l’idea che l’intelligenza artificiale sia effettivamente intelligente in qualche modo; la considero invece un ausilio cognitivo, come una calcolatrice o un elaboratore di testi. Con questa inquadratura, come strumento personale, non come macchina per conquistare il mondo, ora ne vedo i vantaggi. Per questo motivo è giusto che tu non ti interessi della mia app teleprompter. Ciò che ti entusiasmerà è la prospettiva di risolvere i tuoi problemi unici nel tuo modo unico.

È qui che il nostro attuale paradigma di intelligenza artificiale presenta un altro problema. A mio avviso, il miglior LLM sarebbe quello che funziona sul tuo computer, senza alcun collegamento con alcuna società privata. Dovrebbe essere trattato come un dispositivo pericoloso e sperimentale sul quale si ha il controllo completo. Mi viene in mente quel meme di quell’ingegnere del software Posiziona una pistola carica accanto alla stampante nel caso in cui faccia un rumore che non riescono a riconoscere. Purtroppo, gestire il proprio LLM all’avanguardia non è attualmente possibile per una serie di motivi, non ultimo il boom dell’intelligenza artificiale che sta facendo salire i prezzi dell’hardware di cui si ha bisogno.

Vorrei affrontare anche il peccato originale del LLM: la potenziale violazione del copyright. In base alla progettazione, questa tecnologia può essere costruita solo su enormi quantità di dati, essenzialmente l’intera documentazione testuale dell’umanità. È indiscusso che aziende come OpenAI abbiano creato i loro modelli utilizzando testo protetto da copyright senza autorizzazione, anche se se ciò fosse effettivamente illegale è oggetto di procedimenti giudiziari in corso. Un LLM privato avrebbe problemi simili, ma vedo soluzioni come i modelli del settore pubblico, che sono effettivamente condonati dai governi e distribuiti liberamente a beneficio di tutti, non delle società private. Rimango inoltre preoccupato per l’impatto ambientale dei data center, ma questo può essere parzialmente mitigato dall’ampia distribuzione di LLM in esecuzione sulle nostre macchine.

Accetto che alcune persone che leggono questo mi accuseranno di svendermi ai fratelli tecnologici. Tutto quello che posso dire è che non ho modificato la mia posizione di lunga data sul LLM come tecnologia attraente, pericolosa e talvolta stravagante.

Quello che ho capito è che il modo principale in cui interagiamo con la tecnologia è attraverso chatbot intelligenti come ChatGPT, dove gran parte del danno viene fatto e può diffondersi nel mondo. LLM non dovrebbe essere organizzato e prodotto, costretto a entrare in ogni parte della nostra vita con un’emoji scintillante che vuole essere tua amica. Sarebbe molto meglio se utilizzassimo questi dispositivi in ​​modo ponderato, con maggiore attrito e con piena consapevolezza e cautela del potenziale danno che potrebbero causare. Qui, una metafora utile alza la testa. Non voglio olio di serpente da OpenAI. Voglio un serpente.

Soggetto:

Collegamento alla fonte