I ricercatori dell’Università della California, a Santa Cruz, hanno dimostrato che un testo semplice e fuorviante inserito in un ambiente fisico può dirottare il comportamento dei robot abilitati all’intelligenza artificiale senza hackerare il loro software. Lo studio avverte che le auto a guida autonoma, i robot per le consegne e i droni guidati da telecamere che si basano su grandi modelli di linguaggio visivo potrebbero interpretare erroneamente il testo su cartelli, poster o oggetti come comandi, ignorando le istruzioni previste. Guidato da Alvaro Cardenas e Sihang Xie, il team ha costruito una pipeline di attacco chiamata CHAI (Command Hijacking Against Embody AI), che utilizza un’intelligenza artificiale generica per creare sia le parole che l’aspetto di “segnali visivi”, ottimizzando fattori come colore, dimensione e posizionamento.

Collegamento alla fonte