Un critico allarmante, direttore ad interim della Cybersecurity and Infrastructure Security Agency (CISA), Madhu Gottumukkala, ha caricato accidentalmente informazioni sensibili su una versione pubblica di Politico ChatGPT la scorsa estate. Rapporto
“Secondo quattro funzionari del Dipartimento per la Sicurezza Nazionale a conoscenza dell’incidente,” i caricamenti di documenti contrattuali CISA sensibili da parte di Gottumukkala “hanno innescato molteplici precauzioni interne di sicurezza informatica progettate per fermare il furto o la divulgazione involontaria di materiale governativo dalle reti federali.”
I caricamenti di Gottumukkala sono avvenuti dopo che si è unito all’agenzia e ha richiesto un permesso speciale per utilizzare il popolare chatbot di OpenAI, al quale alla maggior parte dei dipendenti del DHS è stato impedito l’accesso, ha confermato il DHS ad Ars. Invece, i dipendenti del DHS utilizzano strumenti autorizzati basati sull’intelligenza artificiale, come la DHSchat dell’agenzia, che sono “configurati per impedire che domande o input di documenti al loro interno lascino le reti federali”, ha riferito Politico.
Il motivo per cui Gottumukkala avesse bisogno di utilizzare ChatGPT non è ancora chiaro. Un funzionario ha detto a POLITICO che, allo staff, sembra che Gottumukkala “abbia forzato la mano del CISA a dargli ChatGPT, e poi ne abbia abusato”.
Le informazioni trapelate da Gottumukkala non sono confidenziali ma sono contrassegnate “solo per uso ufficiale”. Quella designazione, un DHS documento Come spiegato, viene “utilizzato all’interno del DHS per identificare informazioni non classificate di natura sensibile” che, se condivise senza autorizzazione, “potrebbero influire negativamente sulla privacy o sul benessere di un individuo” o interferire con il funzionamento dei programmi federali e di altro tipo “essenziali per l’interesse nazionale”.
Ora c’è il timore che le informazioni sensibili possano essere utilizzate per rispondere a qualsiasi richiesta dei 700 milioni di utenti attivi di ChatGPT.
OpenAI non ha risposto alla richiesta di commento di Ars, ma Cyber News lo ha fatto Rapporto Gli esperti avvertono che “l’utilizzo di strumenti pubblici di intelligenza artificiale comporta rischi reali perché i dati caricati possono essere conservati, violati o utilizzati per rispondere ad altri utenti”.
Fonti hanno detto a Politico che il DHS ha indagato sull’incidente per un potenziale danno alla sicurezza del governo, il che potrebbe comportare un’azione amministrativa o disciplinare, hanno detto i funzionari del DHS a Politico. Le possibili conseguenze potrebbero variare da un avvertimento formale o una riqualificazione obbligatoria alla “sospensione o revoca del nulla osta di sicurezza”, hanno detto i funzionari.















