I ricercatori della Pennsylvania State University hanno sviluppato un’app per smartphone che utilizza l’intelligenza artificiale per aiutare le persone ipovedenti a rilevare oggetti di uso quotidiano in tempo reale.

Lo strumento, chiamato NaviSense, utilizza modelli linguistici di grandi dimensioni e modelli di linguaggio visivo per riconoscere gli oggetti dai segnali parlati, senza la necessità di modelli precaricati.

Una caratteristica fondamentale è la “guida pratica” in tempo reale. Nei test con 12 partecipanti, Navisense ha riconosciuto gli oggetti più velocemente e con maggiore precisione rispetto a due app commerciali di assistenza visiva e gli utenti hanno segnalato un’esperienza complessiva migliore. Il team sta ora perfezionando l’utilizzo della batteria e l’efficienza del modello in vista di un potenziale rilascio commerciale.

Collegamento alla fonte