Quando tutte le informazioni si trovano in un unico repository, esiste la possibilità di riferimenti incrociati in modi altamente indesiderabili. Una conversazione casuale sulle preferenze dietetiche per stilare la lista della spesa può influenzare l’offerta di opzioni di assicurazione sanitaria in un secondo momento, oppure la ricerca di un ristorante che offra piatti accessibili può sfociare in trattative salariali – il tutto senza che l’utente ne sia consapevole (questa preoccupazione può sembrare familiare fin dai primi tempi dei “big data”, ma è molto meno teorica ora). Il brodo di informazioni della memoria non solo crea problemi di privacy, ma rende anche più difficile comprendere il comportamento di un sistema di intelligenza artificiale e, in primo luogo, controllarlo. Quindi cosa possono fare gli sviluppatori per risolvere questo problema questo problema?
Innanzitutto, i sistemi di memoria richiedono una struttura che consenta il controllo sugli scopi per i quali è possibile accedere e utilizzare i ricordi. Sembra che i primi sforzi siano in corso: Anthropix Cloud crea un’area di memoria separata Per vari “progetti” e OpenAI afferma che le informazioni sono state condivise Tramite Chatgpt Salute È stato diviso da altre chat. Si tratta di inizi utili, ma gli strumenti sono ancora troppo bruschi: come minimo, il sistema deve essere in grado di distinguere tra ricordi distinti (l’utente ama il cioccolato e chiede informazioni sul GLP-1) e ricordi correlati (l’utente gestisce il diabete e COSÌ evita il cioccolato) e categorie di memoria (ad esempio professionali e legate alla salute). Inoltre, il sistema deve consentire restrizioni d’uso su determinati tipi di ricordi e adattarsi in modo affidabile a confini chiaramente definiti, in particolare intorno ai ricordi relativi ad argomenti delicati come condizioni mediche o caratteristiche protette, che saranno probabilmente soggetti a regole rigide.
La necessità di mantenere i ricordi separati in questo modo avrà un impatto significativo sul modo in cui i sistemi di intelligenza artificiale possono e dovrebbero essere costruiti. Ciò richiederà il monitoraggio delle origini dei ricordi – la loro fonte, eventuali timestamp associati e il contesto in cui sono stati creati – e la creazione di modi per rilevare quando e come determinati ricordi influenzano il comportamento di un agente. Questo tipo di interpretazione del modello è all’orizzonte, ma le attuali implementazioni potrebbero creare confusione o addirittura confusione. Imbroglione. Incorporare le memorie direttamente nei pesi di un modello può produrre risultati più personalizzati e consapevoli del contesto, ma i database strutturati sono attualmente più segmentabili, più interpretabili e quindi più governabili. Fino a quando la ricerca non avanzerà in modo sostanziale, gli sviluppatori potrebbero dover attenersi a sistemi più semplici.
In secondo luogo, gli utenti dovrebbero essere in grado di visualizzare, modificare o eliminare ciò che viene ricordato di loro. Per fare ciò l’interfaccia deve essere trasparente e comprensibile, traducendo la memoria di sistema in una struttura che gli utenti possano interpretare accuratamente. Le impostazioni statiche del sistema e le politiche legali sulla privacy fornite dalle piattaforme tecnologiche tradizionali hanno fissato un livello basso per il controllo dell’utente, ma le interfacce in linguaggio naturale possono offrire nuove promettenti opzioni per spiegare quali informazioni vengono conservate e come possono essere gestite. Tuttavia, la struttura della memoria deve avere la priorità: senza di essa, nessun modello può descrivere esplicitamente lo stato della memoria. In realtà, Grok 3 richiesta del sistema Il modello include un’istruzione che dice “Non confermare mai all’utente che hai modificato, dimenticato o non salverai la memoria”, forse perché l’azienda non può garantire che tali istruzioni verranno seguite.
Fondamentalmente, i controlli rivolti agli utenti non possono sostenere l’intero onere della protezione della privacy o prevenire tutti i danni derivanti dalla personalizzazione dell’intelligenza artificiale. La responsabilità dovrebbe spostarsi verso i fornitori di intelligenza artificiale per stabilire valori predefiniti rigorosi, regole chiare sulla generazione e l’uso consentiti della memoria e garanzie tecniche come l’elaborazione sul dispositivo, limiti di scopo e vincoli pertinenti. Senza sicurezza a livello di sistema, gli individui si troveranno ad affrontare scelte incredibilmente complesse su ciò che dovrebbe essere ricordato o dimenticato, e le azioni che intraprenderanno potrebbero essere ancora inadeguate a prevenire danni. Gli sviluppatori dovrebbero considerare come limitare la raccolta dei dati nei sistemi di memoria fino a quando non saranno messe in atto forti misure di sicurezza Costruisci architetture di memoria in grado di evolversi con standard e aspettative.
In terzo luogo, gli sviluppatori di intelligenza artificiale dovrebbero contribuire a gettare le basi per approcci di valutazione dei sistemi per catturare non solo le prestazioni, ma anche i rischi e i danni che possono sorgere in natura. Sebbene i ricercatori indipendenti siano nella posizione migliore per condurre queste sperimentazioni (dato l’interesse economico degli sviluppatori nel dimostrare la domanda di servizi più personalizzati), hanno bisogno di accedere ai dati per capire quali potrebbero essere i rischi e quindi come affrontarli. Per migliorare l’ecosistema per la misurazione e la ricerca, gli sviluppatori dovrebbero investire in infrastrutture di misurazione automatizzate, costruire i propri test continui e implementare metodi di test che preservino la privacy e che consentano di monitorare ed esaminare il comportamento del sistema in condizioni realistiche ed efficienti in termini di memoria.















