Questo è il motivo per cui Mehosini sta usando AI per personalizzare i chip AI. Torna al 2021, lui e i suoi colleghi ne hanno fatto uno in Google Sistema AI non LM Può decidere dove ottimizzare l’efficienza, dove posizionare vari componenti sul chip del computer. Sebbene alcuni altri ricercatori Impossibile ripetere Risultati dello studio, dice Mirhosini Natura Ha controllato il documento e ha mantenuto la validità del lavoro e osserva che Google ha utilizzato progetti di sistema per diverse generazioni dei suoi chip AI personalizzati.

Recentemente, Mirhosini ha implementato LLMS al problema della scrittura di kernel, funzione di basso livello, che controllano che varie operazioni, come la moltiplicazione di matrice, vengono eseguite in chips. Ha scoperto che anche l’LLM per uso generale, in alcuni casi, può scrivere kernel Rapido Rispetto alle versioni progettate dall’uomo.

Da qualche altra parte di Google, gli scienziati hanno costruito un sistema, che utilizzavano per personalizzare varie parti dell’infrastruttura LLM dell’azienda. Un sistema chiamato Alforvolva, Gemini LLM di Google, ispira l’algoritmo per risolvere alcuni problemi, valuta quegli algoritmi e chiede a Gemini di migliorare quando il più successo e ripetere quel processo più volte. Alphaevolve ha preparato un nuovo approccio per eseguire un datatery risparmiando le risorse computazionali dello 0,7% di Google, ha ulteriormente migliorato la progettazione di chip personalizzata di Google e ha progettato un nuovo kernel che ha aumentato la formazione di Gemini dell’1%.

Questo può sembrare un piccolo miglioramento, ma in una grande azienda come Google, è uguale a pesanti risparmi di tempo, denaro ed energia. E uno scienziato dei dipendenti di Google DeepMind, Matej Balog, che ha guidato il progetto Alphavolve, afferma che lui e il suo team hanno testato il sistema su un solo piccolo componente della pipeline di formazione generale di Mithun. Applicandolo più ampiamente, dicono, potrebbero essere più risparmi.

3. Formazione automatizzata

Gli LLM sono famosi affamati di dati e addestrarli è costoso in ogni fase. In alcuni linguaggi di programmazione incompatibili con domini specifici, ad esempio i dati del World-World sono molto rari per formare efficacemente LLM. Apprendimento del rinforzo con la risposta umana, una tecnica in cui le reazioni LLM per i segnali umani e LLM sono addestrati usando quei punteggi, è importante fare modelli che si comportano per corrispondere agli standard e alle preferenze umane, ma è lento e costoso ottenere una reazione umana.

LLM viene utilizzato per riempire intervalli rapidi. Se indicato con molti esempi, LLM può generare ammirevoli dati sintetici nel dominio in cui non sono addestrati e che i dati sintetici possono quindi essere utilizzati per la formazione. LLM può anche essere utilizzato in modo efficace per l’apprendimento del rinforzo: in un approccio chiamato “LLM come giudice”, LLMS, anziché gli umani, viene utilizzato per ottenere risultati di modelli che vengono addestrati. Questo approccio è importante per l’impressionante quadro “AI costituzionale” proposto dai ricercatori antropici nel 2022, in cui un LLM è addestrato a essere meno dannoso in base alla reazione di un altro LLM.

La carenza di dati è un problema particolarmente acuto per gli agenti di intelligenza artificiale. Gli agenti efficaci devono essere in grado di pianificare multistap per completare compiti speciali, ma esempi di lavoro a passo di successo sono rari online e sarà costoso usare gli esseri umani per generare nuovi esempi. Per attraversare questo confine, Mirhosini di Stanford e i suoi colleghi hanno recentemente fatto un pilota. Tecnologia In cui un agente LLM produce un potenziale approccio passo-passo a un determinato problema, un giudice LLM valuta se ogni fase è valida e quindi un nuovo agente LLM è addestrato su tali passaggi. “Non sei più limitato dai dati, perché il modello può produrre arbitrariamente sempre più esperienze”, afferma Mirhosini.

4. Perfecting Design dell’agente

Una regione in cui LLM non ha ancora dato un importante contributo è nella progettazione dello stesso LLMS. La LLM di oggi si basa su una struttura a rete nervosa chiamata trasformatore, proposta dai ricercatori umani nel 2017, e da allora sono state fatte riforme notevoli in architettura, erano anche progettate umane.

Collegamento alla fonte