Gepresenteerd door Capital One Software
Tokenisatie is in opkomst als een hoeksteen van moderne gegevensbeveiliging en helpt bedrijven de waarde van hun gegevens te scheiden van de risico’s ervan. Tijdens deze VB in GesprekRavi Raghu, president van Capital One Software, vertelt over de manieren waarop tokenisatie kan helpen de waarde van geschonden gegevens te verminderen en het onderliggende gegevensformaat en de bruikbaarheid te behouden, inclusief de eigen ervaring van Capital One met het benutten van tokenisatie op schaal.
Tokenisatie, beweert Raghu, is een veel superieure technologie. Het zet gevoelige gegevens om in een niet-gevoelige digitale vervanging, een token genaamd, die teruggaat naar het origineel, dat is beveiligd in een digitale kluis. De token-placeholder behoudt zowel het formaat als het nut van de gevoelige gegevens en kan in alle applicaties worden gebruikt, inclusief AI-modellen. Omdat tokenisatie de noodzaak wegneemt om encryptiesleutels te beheren of rekenkracht te wijden aan het voortdurend coderen en decoderen, biedt het een van de meest schaalbare manieren voor bedrijven om hun meest gevoelige gegevens te beschermen, voegde hij eraan toe.
“Het dodelijke deel, vanuit veiligheidsoogpunt, als je erover nadenkt in relatie tot andere methoden: als een slechte actor de gegevens in handen krijgt, krijgen zij tokens in handen”, legde hij uit. “De daadwerkelijke gegevens zitten niet bij de token, in tegenstelling tot andere methoden zoals encryptie, waarbij de daadwerkelijke gegevens daar zitten, wachtend tot iemand een sleutel te pakken krijgt of brute kracht gebruikt om bij de echte gegevens te komen. Vanuit elke hoek is dit de ideale manier om gevoelige gegevens te beschermen.”
De tokenisatie-differentiator
De meeste organisaties zijn nog maar het begin van databeveiliging aan het verkennen, door beveiliging helemaal aan het einde toe te voegen, wanneer de gegevens worden gelezen, om te voorkomen dat een eindgebruiker er toegang toe krijgt. Organisaties moeten zich op zijn minst richten op het beveiligen van gegevens tijdens het schrijven, terwijl deze worden opgeslagen. Maar de beste organisaties gaan zelfs nog verder en beschermen gegevens vanaf de geboorte, vanaf het moment dat ze worden aangemaakt.
Aan de ene kant van het veiligheidsspectrum bevindt zich een eenvoudige ‘lock-and-key’-aanpak die de toegang beperkt, maar de onderliggende gegevens intact laat. Geavanceerdere methoden, zoals het maskeren of wijzigen van gegevens, veranderen de betekenis ervan permanent – wat de bruikbaarheid ervan in gevaar kan brengen. Encryptie op bestandsniveau biedt een bredere bescherming voor grote hoeveelheden opgeslagen gegevens, maar als je het over versleuteling op veldniveau hebt (bijvoorbeeld een burgerservicenummer), wordt het een grotere uitdaging. Er is veel rekenkracht nodig om een enkel veld te versleutelen, en het vervolgens op het moment van gebruik te ontsleutelen. En toch heeft het een fatale fout: de originele gegevens zijn nog steeds aanwezig en hebben alleen de sleutel nodig om toegang te krijgen.
Tokenisatie vermijdt deze valkuilen door de originele gegevens te vervangen door een surrogaat dat geen intrinsieke waarde heeft. Als het token wordt onderschept – door de verkeerde persoon of door de verkeerde machine – blijven de gegevens zelf veilig.
De zakelijke waarde van tokenisatie
“In wezen bescherm je gegevens, en dat is van onschatbare waarde”, zei Raghu. “Nog iets dat van onschatbare waarde is: kun je dat vervolgens gebruiken voor modelleringsdoeleinden? Aan de ene kant is het een beschermingsmiddel, en aan de andere kant is het een bedrijfsbevorderend iets.”
Omdat tokenisatie de structuur en ordinaliteit van de oorspronkelijke gegevens behoudt, kan deze nog steeds worden gebruikt voor modellering en analyse, waardoor bescherming een zakelijke enabler wordt. Neem bijvoorbeeld particuliere gezondheidsgegevens die onder HIPAA vallen: tokenisatie betekent dat gegevens kunnen worden gebruikt om prijsmodellen op te bouwen of voor onderzoek naar gentherapie, terwijl ze toch aan de regels blijven voldoen.
“Als je data al beschermd zijn, kun je het gebruik van data door de hele onderneming uitbreiden en ervoor zorgen dat iedereen steeds meer waarde uit de data haalt”, aldus Raghu. “Omgekeerd, als je dat niet hebt, is er tegenwoordig veel terughoudendheid bij bedrijven om meer mensen er toegang toe te geven, of om steeds meer AI-agenten toegang te geven tot hun gegevens. Ironisch genoeg beperken ze de explosieradius van innovatie. De impact van tokenisatie is enorm, en er zijn veel maatstaven die je zou kunnen gebruiken om dat te meten: operationele impact, impact op de omzet en uiteraard de gemoedsrust vanuit veiligheidsoogpunt.”
Het doorbreken van adoptiebarrières
Tot nu toe waren de fundamentele uitdagingen bij traditionele tokenisatie de prestaties. AI vereist een schaal en snelheid die ongekend is. Dat is een van de grootste uitdagingen die Capital One aanpakt met Databolt, de kluisloze tokenisatie-oplossing, die tot 4 miljoen tokens per seconde kan produceren.
“Capital One heeft al meer dan tien jaar tokenisatie ondergaan. We zijn ermee begonnen omdat we onze 100 miljoen bankklanten bedienen. We willen die gevoelige gegevens beschermen”, zei Raghu. “We hebben ons eigen hondenvoer gegeten met onze interne tokenisatiecapaciteit, meer dan 100 miljard keer per maand. We hebben die kennis en die mogelijkheid, schaal en snelheid gebruikt en geïnnoveerd zodat de wereld er gebruik van kan maken, zodat het een commercieel aanbod is.”
Vaultless tokenisatie is een geavanceerde vorm van tokenisatie waarvoor geen centrale database (kluis) nodig is om tokentoewijzingen op te slaan. In plaats daarvan maakt het gebruik van wiskundige algoritmen, cryptografische technieken en deterministische mapping om tokens dynamisch te genereren. Deze aanpak is sneller, schaalbaarder en elimineert het beveiligingsrisico dat gepaard gaat met het beheren van een kluis.
“We realiseerden ons dat we vanwege de schaal- en snelheidseisen die we hadden, die capaciteit zelf moesten uitbouwen”, zei Raghu. “We hebben er voortdurend aan gewerkt om ervoor te zorgen dat het kan opschalen naar honderden miljarden activiteiten per maand. Al onze innovatie draait om het opbouwen van IP en de mogelijkheid om dat op een beproefde schaal binnen onze onderneming te doen, met als doel onze klanten van dienst te zijn.”
Hoewel conventionele tokenisatiemethoden enige complexiteit met zich mee kunnen brengen en de activiteiten kunnen vertragen, kan Databolt naadloos worden geïntegreerd met gecodeerde datawarehouses, waardoor bedrijven een robuuste beveiliging kunnen handhaven zonder de prestaties of activiteiten te vertragen. Tokenisatie vindt plaats in de omgeving van de klant, waardoor er geen noodzaak meer is om met een extern netwerk te communiceren om tokenisatiebewerkingen uit te voeren, wat ook de prestaties kan vertragen.
“Wij zijn van mening dat tokenisatie fundamenteel gemakkelijk te implementeren moet zijn”, aldus Raghu. “Je zou je data heel snel moeten kunnen beveiligen en moeten kunnen opereren met de snelheid, schaal en kosten die organisaties nodig hebben. Ik denk dat dit tot nu toe een kritische barrière is geweest voor de massale adoptie van tokenisatie. In een AI-wereld zal dat een enorme factor worden.”
Mis het niet het hele gesprek met Ravi Raghu, president van Capital One Software, hier.
Gesponsorde artikelen zijn inhoud die is geproduceerd door een bedrijf dat voor de post betaalt of een zakelijke relatie heeft met VentureBeat, en deze is altijd duidelijk gemarkeerd. Voor meer informatie kunt u contact opnemen met sales@venturebeat.com.



