Immagina che vorresti scegliere un mucchio di robot bianco e lavanderia a colori. Gemie Robotics-ER 1.5 elaborerà la richiesta con l’immagine dell’ambiente fisico (un mucchio di abbigliamento). Questa intelligenza artificiale può anche chiamare apparecchiature come Google Search per raccogliere più dati. Il modello ER produce quindi le istruzioni del linguaggio naturale, i passaggi specifici che dovrebbero essere seguiti per completare il robot per completare l’attività.



I due nuovi modelli lavorano insieme per “pensare” a come finire un lavoro.

Credito: Google

I due nuovi modelli lavorano insieme per “pensare” a come finire un lavoro.


Credito: Google

Gemi Robotics 1.5 (Modello d’azione) prende queste istruzioni dal modello ER e crea verbi robot quando si utilizzano input visivi per guidare i suoi movimenti. Tuttavia, vale anche per considerare come comunicare ad ogni passaggio. Kanishka Rao di Dipmind afferma: “Ci sono tutti questi pensieri intuitivi che aiutano a gestire questo lavoro (una persona) ma i robot non hanno questa intuizione”. “Uno dei grandi progressi che abbiamo fatto con 1,5 in VLA è la capacità di pensare prima che funzioni.”

La nuova intelligenza artificiale robotica di DipMind è entrambe costruita sui modelli di fondazione Gemi, ma va bene con i dati che si adattano alla loro posizione fisica. Il partito afferma che il robot ha la capacità di fare più feedback multiple, con l’agente in robotica.

Il team DipMind esamina la robotica Gemi con alcune macchine diverse come Aloha 2 e Humanoid Apollo. In passato, i ricercatori di AI hanno dovuto creare modelli personalizzati per ogni robot, ma non era più necessario. DipMind afferma che Gemini Robotics 1.5 può imparare in diverse statue, trasferendo le competenze alla pinza di Aloha 2 senza alcun sintonizzazione specializzata ad Apollo.

Tutte queste discussioni sugli agenti fisici guidati dall’intelligenza artificiale sono divertenti, ma possiamo ancora ordinare la tua biancheria da lontano da un robot. Gemi Robotics è 1,5, il modello che controlla effettivamente i robot, è ancora disponibile per gli esaminatori di fiducia. Tuttavia, il modello di pensiero ER viene ora implementato agli Studios di Google AI, consentendo agli sviluppatori di creare istruzioni robotiche per i propri test robotici incorporati fisicamente.

Collegamento alla fonte