Tokenitation

« Back to Glossary Index


La tokenización es el proceso de reemplazar datos confidenciales con símbolos de identificación únicos que retienen toda la información esencial sobre los datos sin comprometer su seguridad.

« Back to Glossary Index