Tugurium/GTI

Glosario Terminología Informática

tokenization

0 tokenización
Proceso de sustitución de un elemento de datos sensibles por un equivalente no sensible, denominado token, que no tiene un significado o valor extrínseco o explotable. El testigo es una referencia que se asigna a los datos sensibles y que no debería ser fácil de adivinar y es el indicador clave de la fuerza de seguridad de la verificación. De esta forma, los robos de información proporcionan escasa información al atacante, pero el propietario auténtico puede establecer la relación debida con la transacción correspondiente.
2017-11-16