Gli ultimi sviluppi tecnologici migliorano la capacità di ragionamento delle macchine di utilizzo generale per renderlo più utile.
Google DeepMind offre modelli AI che hanno ulteriormente aumentato la capacità di ragionamento in robotica, Per consentire loro di risolvere problemi più complessi e completare compiti più complessi come l’ordinazione di vestiti e il riciclaggio della spazzatura.
I nuovi modelli robotici dell’azienda sono progettati per aiutare i robot a completare le loro attività di “pensiero” prima di recitare.Come parte dello sforzo del settore tecnologico di rendere le macchine più utili nelle attività quotidiane.
Di conseguenza Google DeepMind, un robot addestrato con il suo nuovo modello, è stato in grado di pianificare come completare compiti come la piegatura in diversi cestini. Questo progresso emerge in un momento in cui gruppi tecnologici come Openai e Tesla cercano di integrare i modelli IA nei robot nella speranza di trasformare vari settori dai servizi sanitari alla produzione.
“Finora, i modelli sono stati in grado di seguire un’istruzione allo stesso tempo con grande successo.. Ora risolveremo problemi reali per le attività fisiche da un’unica istruzione. “
A marzo, Google DeepMind ha presentato la prima versione di questi modelli vantaggiosi Per aiutare i robot ad adattarsi a diverse nuove situazioni, il sistema Gemini 2.0 dell’azienda, Rispondi rapidamente alle istruzioni orali o ai cambiamenti nell’ambiente ed essere in grado di manipolare gli oggetti.
Sebbene questa versione completerà attività come la carta pieghevole o l’apertura di una borsa, puoi seguire una serie di istruzioni più recenti e anche Usa strumenti come Google Search per aiutarti a risolvere i problemi.
In uno spettacolo, un ricercatore Google DeepMind ha chiesto al robot di tenere un cappello nella sua borsa per un viaggio a Londra. Il robot può anche dire che avrebbe piovuto per alcuni giorni durante il viaggio, quindi ha messo un ombrello nella sua borsa.
Gemini Robotics 1.5 è un nuovo concetto in cui viene chiesto ai robot di pensare a cosa fare.
Tuttavia, il centro robotico e il co -dettore di Manchester Angelo Cangelosi hanno avvertito che questi robot non dovrebbero essere presi in considerazione. Un altro progresso del nuovo sistema Google DeepMind è una tecnica chiamata “trasferimento di movimento” che consente a un modello di utilizzare le competenze progettate per un tipo di corpo robotico specifico.Come braccia robotica e trasferirle a qualcun altro come un robot umanoide.
Tradizionalmente, il movimento e il movimento dei robot in uno spazio richiedono una pianificazione e una codifica meticolose e viene utilizzato per limitarti a un tipo specifico di robot, come le braccia robotiche. Questo progresso nel “trasferimento del movimento” può aiutare Risolvi un importante ostacolo nello sviluppo di robot con intelligenza artificiale: la mancanza di dati educativi adeguati.
“A differenza dei grandi modelli linguistici che possono essere addestrati con un’enorme quantità di dati su Internet, la robotica è stata limitata al processo di raccolta dei dati reali per i robot”, ha affermato. Kanishka Rao è il principale motore robotico di Google DeepMind.
La società ha affermato che dovrebbe ancora superare una serie di ostacoli tecnologici. Ciò includeva la capacità dei robot di conoscere la capacità di monitorare i video umani che svolgono attività. Ha anche affermato che i robot dovrebbero essere più accurati, affidabili e sicuri prima di essere implementati in ambienti con cui interagiscono.
“Una delle principali sfide dei robot è che le cose intuitive sono in realtà difficili per i robot”, ha detto Rao.
© The Financial Times Limited (2025). Tutti i diritti riservati. FT e Financial Times sono i marchi registrati del Financial Times Limited. Sono vietate riduzione, copia o modifiche. L’espansione è responsabile solo di questa traduzione e il Financial Times Limited non è responsabile della sua precisione.