Gli obiettivi sono validi, ma alla fine si basano sulla lettura da parte degli utenti di finestre di dialogo che avvertono dei rischi e richiedono un’attenta approvazione prima di procedere. Ciò, a sua volta, riduce il valore della sicurezza per molti utenti.
“La solita cautela si applica ai metodi che si basano sul fatto che gli utenti facciano clic su una richiesta di autorizzazione”, ha affermato in un’intervista il professore Arlens Fernandes dell’Università della California, San Diego, esperto di sicurezza dell’intelligenza artificiale. “A volte questi utenti non capiscono appieno cosa sta succedendo, oppure si abituano e fanno sempre clic su ‘sì’. A questo punto, il confine di sicurezza non è realmente un confine.”
Come dimostrato dall’ondata di attacchi “ClickFix”, molti utenti possono essere ingannati seguendo istruzioni estremamente pericolose. Anche se gli utenti più esperti (tra cui un buon numero di commentatori di Ars) incolpano le vittime di tali truffe, questi incidenti sono inevitabili per molte ragioni. In alcuni casi, anche gli utenti più attenti si sentono affaticati o mentalmente angosciati e di conseguenza scivolano. Altri utenti semplicemente non hanno le conoscenze necessarie per prendere decisioni informate.
L’avvertimento di Microsoft, dice un critico, è poco più di un CYA (abbreviazione di cover your ass), un trucco legale che cerca di proteggere una delle parti dalla responsabilità.
“Microsoft (come il resto del settore) non ha idea di come fermare l’iniezione immediata o le allucinazioni, il che la rende fondamentalmente incompetente per qualcosa di altrettanto serio”, ha detto il critico Reed Meadeke. disse. “La soluzione? Spostare la responsabilità sull’utente. Proprio come ogni chatbot LLM ha un disclaimer ‘oh comunque, non dimenticare di verificare le risposte se lo usi per qualcosa di importante”, non importa che se conoscessi la risposta non avresti bisogno del chatbot in primo luogo.
Come sottolinea Midek, gran parte delle critiche si estendono alle offerte di intelligenza artificiale che Apple, Google e altre società, tra cui Meta, stanno integrando nei loro prodotti. Spesso queste integrazioni iniziano come funzionalità opzionali e alla fine diventano funzionalità predefinite, indipendentemente dal fatto che gli utenti le vogliano o meno.















