Presentato da Capital One Software
La tokenizzazione sta emergendo come la pietra angolare della moderna sicurezza dei dati, aiutando le aziende a separare il valore dei propri dati dal rischio. Durante questo VB in conversazioneRavi Raghu, presidente di Capital One Software, parla dei modi in cui la tokenizzazione può aiutare a ridurre il valore dei dati violati e preservare il formato e la disponibilità dei dati sottostanti, inclusa l’esperienza di Capital One nello sfruttamento della tokenizzazione su larga scala.
Raghu sostiene che la tokenizzazione è una tecnologia di gran lunga superiore. Converte i dati sensibili in uno scambio digitale non sensibile chiamato token, che è mappato sull’originale, protetto in un caveau digitale. Il segnaposto token preserva sia il formato che l’utilità dei dati sensibili e può essere utilizzato in tutte le applicazioni, compresi i modelli di intelligenza artificiale. Ha aggiunto che, poiché la tokenizzazione elimina la necessità di gestire chiavi di crittografia o dedicare l’elaborazione a crittografia e decrittografia costanti, offre alle aziende uno dei modi più scalabili per proteggere i propri dati più sensibili.
"La parte cruciale è, dal punto di vista della sicurezza, se ci si pensa rispetto ad altri metodi, se un cattivo attore cattura i dati, cattura anche i token." spiegato. "I dati effettivi non si trovano accanto al token, a differenza di altri metodi come la crittografia; I dati reali sono lì, in attesa che qualcuno ottenga una chiave o usi la forza bruta per arrivare ai dati reali. Da tutti i punti di vista, questo è il modo ideale per proteggere i dati sensibili."
Differenziatore di tokenizzazione
La maggior parte delle organizzazioni sta solo grattando la superficie della sicurezza dei dati, aggiungendo sicurezza alla fine durante la lettura dei dati per impedire all’utente finale di accedervi. Le organizzazioni dovrebbero almeno concentrarsi sulla garanzia della sicurezza dei dati in scrittura mentre sono archiviati. Ma le organizzazioni migliori vanno oltre, proteggendo i dati man mano che nascono e vengono creati.
A un’estremità dello spettro della sicurezza c’è un semplice approccio “lock-and-key” che limita l’accesso ma lascia intatti i dati sottostanti. Metodi più avanzati, come il mascheramento o la manipolazione dei dati, modificano in modo permanente il significato dei dati, il che può comprometterne l’utilità. La crittografia a livello di file fornisce una protezione più ampia per grandi volumi di dati archiviati, ma quando si arriva alla crittografia a livello di campo (ad esempio, il numero di previdenza sociale), questa diventa una sfida più grande. Crittografare un singolo dominio e decrittografarlo nel punto di utilizzo richiede una grande quantità di elaborazione. Eppure ha un difetto fatale: i dati originali sono ancora lì, serve solo la chiave per accedervi.
La tokenizzazione evita queste insidie sostituendo i dati originali con un proxy che non ha valore intrinseco. Se il token viene ottenuto dalla persona sbagliata o dalla macchina sbagliata, i dati rimangono al sicuro.
Valore aziendale della tokenizzazione
"Fondamentalmente stai proteggendo i dati e questo non ha prezzo." Raghu ha detto. "Un’altra cosa che ha un valore inestimabile: puoi usarlo per scopi di modellazione in seguito? Da un lato è una questione di protezione, dall’altro è qualcosa che rende possibile il lavoro."
Poiché la tokenizzazione preserva la struttura e la sequenzialità dei dati originali, può comunque essere utilizzata per la modellazione e l’analisi, trasformando la protezione in un fattore abilitante per il business. Prendiamo ad esempio i dati sanitari privati disciplinati dall’HIPAA: la tokenizzazione significa che i dati possono essere utilizzati per creare modelli di prezzo o per la ricerca sulla terapia genica pur rimanendo conformi.
"Se i tuoi dati sono già protetti, puoi moltiplicare l’utilizzo dei dati all’interno dell’organizzazione e consentire a tutti di creare più valore dai dati." Raghu ha detto. "Al contrario, se non si dispone di questo, oggi c’è molta reticenza nelle aziende riguardo a un numero maggiore di persone che accedono ai dati o a un numero sempre maggiore di agenti IA che accedono ai loro dati. Ironicamente, limitano il raggio d’azione dell’innovazione. L’impatto della tokenizzazione è enorme e ci sono molti parametri che puoi utilizzare per misurarlo: impatto operativo, impatto sulle entrate e, naturalmente, tranquillità in termini di sicurezza."
Eliminare le barriere all’adozione
Finora la sfida principale con la tokenizzazione tradizionale è stata la performance. L’intelligenza artificiale richiede dimensioni e velocità senza precedenti. Questa è una delle sfide più grandi che Capital One sta risolvendo con Databolt, una soluzione di tokenizzazione senza deposito in grado di generare fino a 4 milioni di token al secondo.
"Capital One sta attraversando il processo di tokenizzazione da oltre un decennio. Abbiamo iniziato a farlo perché serviamo 100 milioni di clienti bancari. Vogliamo proteggere questi dati sensibili," Raghu ha detto. "Mangiamo il nostro cibo per cani più di 100 miliardi di volte al mese grazie alla nostra funzionalità di tokenizzazione integrata. Abbiamo preso quella conoscenza, talento, scala e velocità e abbiamo innovato in modo che il mondo potesse trarne vantaggio e diventare un’offerta commerciale."
La tokenizzazione senza vault è una forma avanzata di tokenizzazione che non richiede un database centrale (vault) per archiviare le mappature dei token. Utilizza invece algoritmi matematici, tecniche crittografiche e mappatura deterministica per generare dinamicamente token. Questo approccio è più veloce, più scalabile ed elimina i rischi per la sicurezza associati alla gestione del deposito.
"Ci siamo resi conto che, a causa delle esigenze di scala e velocità che abbiamo, dovevamo sviluppare questa capacità per conto nostro." Raghu ha detto. "Lavoriamo costantemente per garantire che possa raggiungere centinaia di miliardi di operazioni al mese. Tutta la nostra innovazione riguarda la costruzione della proprietà intellettuale e la capacità di fare questa cosa su una scala testata sul campo all’interno della nostra organizzazione per servire i nostri clienti."
Mentre i metodi di tokenizzazione tradizionali possono richiedere una certa complessità e rallentamenti, Databolt si integra perfettamente con i data warehouse crittografati, consentendo alle aziende di fornire una solida sicurezza senza rallentare le prestazioni o le operazioni. La tokenizzazione avviene nell’ambiente del cliente ed elimina la necessità di comunicare con una rete esterna per eseguire transazioni di tokenizzazione, che possono rallentare le prestazioni.
"Fondamentalmente, crediamo che la tokenizzazione dovrebbe essere facile da adottare." Raghu ha detto. "Devi essere in grado di proteggere i tuoi dati molto rapidamente e operare alla velocità, scalabilità e requisiti di costo richiesti dalle organizzazioni. Penso che finora questo sia stato un ostacolo fondamentale all’adozione su larga scala della tokenizzazione. Questo sarà un enorme fattore abilitante nel mondo dell’intelligenza artificiale."
Da non perdere Ecco la conversazione completa con Ravi Raghu, presidente di Capital One Software.
Gli articoli sponsorizzati sono contenuti prodotti da un’azienda che ha pagato per il post o ha un rapporto commerciale con VentureBeat e sono sempre chiaramente contrassegnati. Contatta per maggiori informazioni sales@venturebeat.com.













