Tokenização (segurança de dados) - Tokenization (data security)

Este é um exemplo simplificado de como a tokenização de pagamento móvel normalmente funciona por meio de um aplicativo de telefone móvel com um cartão de crédito . Métodos diferentes de digitalização de impressão digital ou números PIN podem ser usados ​​em um terminal de pagamento .

A tokenização , quando aplicada à segurança de dados, é o processo de substituição de um elemento de dados sensíveis por um equivalente não sensível, denominado token , que não tem significado ou valor extrínseco ou explorável. O token é uma referência (ou seja, identificador) que mapeia de volta para os dados confidenciais por meio de um sistema de tokenização. O mapeamento dos dados originais para um token usa métodos que tornam os tokens inviáveis ​​para reversão na ausência do sistema de tokenização, por exemplo, usando tokens criados a partir de números aleatórios . O sistema de tokenização deve ser protegido e validado usando as melhores práticas de segurança aplicáveis ​​à proteção de dados confidenciais, armazenamento seguro, auditoria, autenticação e autorização. O sistema de tokenização fornece aos aplicativos de processamento de dados autoridade e interfaces para solicitar tokens ou detokenizar de volta para dados confidenciais.

Os benefícios de segurança e redução de risco da tokenização exigem que o sistema de tokenização seja logicamente isolado e segmentado dos sistemas de processamento de dados e aplicativos que anteriormente processavam ou armazenavam dados confidenciais substituídos por tokens. Apenas o sistema de tokenização pode tokenizar dados para criar tokens ou detokenizar de volta para resgatar dados confidenciais sob rígidos controles de segurança. O método de geração de tokens deve ser comprovado como tendo a propriedade de que não há meios viáveis ​​por meio de ataque direto, criptanálise , análise de canal lateral, exposição de tabela de mapeamento de tokens ou técnicas de força bruta para reverter tokens de volta para dados ativos.

A substituição de dados ativos por tokens em sistemas visa minimizar a exposição de dados confidenciais a esses aplicativos, lojas, pessoas e processos, reduzindo o risco de comprometimento ou exposição acidental e acesso não autorizado a dados confidenciais. Os aplicativos podem operar usando tokens em vez de dados ativos, com exceção de um pequeno número de aplicativos confiáveis ​​com permissão explícita para detonar quando estritamente necessário para uma finalidade comercial aprovada. Os sistemas de tokenização podem ser operados internamente em um segmento seguro e isolado do data center ou como um serviço de um provedor de serviços seguro.

Tokenization pode ser usado para proteger os dados sensíveis envolvendo, por exemplo, contas bancárias , demonstrações financeiras , registros médicos , registos criminais , carteiras de motorista , empréstimo aplicações, banco de negócios , os registros de eleitores , e outros tipos de informações de identificação pessoal (PII). A tokenização é freqüentemente usada no processamento de cartão de crédito. O PCI Council define a tokenização como "um processo pelo qual o número da conta principal (PAN) é substituído por um valor substituto chamado token. A des tokenização é o processo reverso de resgatar um token para seu valor PAN associado. A segurança de um indivíduo token depende predominantemente da inviabilidade de determinar o PAN original sabendo apenas o valor substituto ". A escolha de tokenização como alternativa a outras técnicas, como criptografia , dependerá de diversos requisitos regulatórios, interpretação e aceitação pelas respectivas entidades de auditoria ou avaliação. Isso é um acréscimo a qualquer restrição técnica, arquitetônica ou operacional que a tokenização impõe no uso prático.

Conceitos e origens

O conceito de tokenização, conforme adotado pela indústria hoje, existe desde que os primeiros sistemas monetários surgiram séculos atrás como um meio de reduzir o risco no manuseio de instrumentos financeiros de alto valor , substituindo-os por equivalentes substitutos. No mundo físico, os tokens de moeda têm uma longa história de uso, substituindo o instrumento financeiro de moedas e notas cunhadas . Na história mais recente, os tokens de metrô e fichas de cassino foram adotados em seus respectivos sistemas para substituir a moeda física e os riscos de manuseio de dinheiro, como roubo. Exonumia e scrip são termos sinônimos desses tokens.

No mundo digital, técnicas de substituição semelhantes têm sido usadas desde a década de 1970 como um meio de isolar elementos de dados reais da exposição a outros sistemas de dados. Em bancos de dados, por exemplo, os valores de chave substituta têm sido usados ​​desde 1976 para isolar dados associados aos mecanismos internos de bancos de dados e seus equivalentes externos para uma variedade de usos no processamento de dados. Mais recentemente, esses conceitos foram estendidos para considerar essa tática de isolamento para fornecer um mecanismo de segurança para fins de proteção de dados.

No setor de cartões de pagamento , a tokenização é um meio de proteger os dados confidenciais do titular do cartão para cumprir os padrões do setor e as regulamentações governamentais.

Em 2001, a TrustCommerce criou o conceito de tokenização para proteger os dados de pagamento confidenciais de um cliente, Classmates.com. Ela envolveu Rob Caulfield, fundador da TrustCommerce, porque o risco de armazenar os dados do titular do cartão seria muito grande se os sistemas fossem hackeados. A TrustCommerce desenvolveu o TC Citadel®, com o qual os clientes podiam fazer referência a um token no lugar dos dados do titular do cartão e a TrustCommerce processava um pagamento em nome do comerciante. Este aplicativo de faturamento permitiu que os clientes processassem pagamentos recorrentes sem a necessidade de armazenar informações de pagamento do titular do cartão. A tokenização substitui o número da conta primária (PAN) por tokens gerados aleatoriamente. Se interceptados, os dados não contêm informações do titular do cartão, tornando-os inúteis para os hackers. O PAN não pode ser recuperado, mesmo se o token e os sistemas em que ele reside estiverem comprometidos, nem o token pode ser submetido a engenharia reversa para chegar ao PAN.

A tokenização foi aplicada aos dados de cartão de pagamento pela Shift4 Corporation e divulgada ao público durante uma Cúpula de Segurança da indústria em Las Vegas , Nevada , em 2005. A tecnologia foi criada para evitar o roubo das informações do cartão de crédito armazenadas. Shift4 define tokenização como: “O conceito de usar uma parte não decifrável de dados para representar, por referência, dados confidenciais ou secretos. No contexto da indústria de cartões de pagamento (PCI), os tokens são usados ​​para fazer referência aos dados do portador do cartão que são gerenciados em um sistema de tokenização, aplicativo ou instalação segura externa. ”

Para proteger os dados durante todo o seu ciclo de vida, a tokenização é frequentemente combinada com criptografia ponta a ponta para proteger os dados em trânsito para o sistema ou serviço de tokenização, com um token substituindo os dados originais no retorno. Por exemplo, para evitar os riscos de malware roubar dados de sistemas de baixa confiança, como sistemas de ponto de venda (POS), como na violação do Target de 2013 , a criptografia dos dados do titular do cartão deve ocorrer antes dos dados do cartão entrarem no POS e não depois . A criptografia ocorre dentro dos limites de um dispositivo de leitura de cartão validado e com segurança reforçada e os dados permanecem criptografados até serem recebidos pelo host de processamento, uma abordagem iniciada pela Heartland Payment Systems como um meio de proteger os dados de pagamento de ameaças avançadas, agora amplamente adotada pelo setor de pagamentos empresas de processamento e empresas de tecnologia. O PCI Council também especificou criptografia ponto a ponto (criptografia ponto a ponto certificada - P2PE) para várias implementações de serviço em vários documentos de criptografia ponto a ponto do PCI Council .

Diferença de criptografia

A tokenização e a criptografia “clássica” protegem efetivamente os dados, se implementadas de maneira adequada, e um sistema de segurança de computador pode usar ambas. Embora semelhantes em certos aspectos, a tokenização e a criptografia clássica diferem em alguns aspectos importantes. Ambos são métodos de segurança de dados criptográficos e têm essencialmente a mesma função, no entanto, o fazem com processos diferentes e têm efeitos diferentes sobre os dados que estão protegendo.

A tokenização é uma abordagem não matemática que substitui dados confidenciais por substitutos não confidenciais sem alterar o tipo ou comprimento dos dados. Esta é uma distinção importante da criptografia porque as alterações no comprimento e tipo dos dados podem tornar as informações ilegíveis em sistemas intermediários, como bancos de dados. Os dados com token ainda podem ser processados ​​por sistemas legados, o que torna a tokenização mais flexível do que a criptografia clássica.

Outra diferença é que os tokens requerem significativamente menos recursos computacionais para serem processados. Com a tokenização, dados específicos são mantidos total ou parcialmente visíveis para processamento e análise, enquanto informações confidenciais são mantidas ocultas. Isso permite que os dados tokenizados sejam processados ​​mais rapidamente e reduz a pressão sobre os recursos do sistema. Essa pode ser uma vantagem importante em sistemas que dependem de alto desempenho.

Tipos de tokens

Os tokens podem ser classificados de muitas maneiras, mas atualmente não há uma classificação unificada. Os tokens podem ser: único ou multiuso, criptográfico ou não criptográfico, reversível ou irreversível, autenticável ou não autenticável e várias combinações dos mesmos.

No contexto de pagamentos, a diferença entre tokens de alto e baixo valor desempenha um papel significativo.

Tokens de alto valor (HVTs)

HVTs servem como substitutos para PANs reais em transações de pagamento e são usados ​​como um instrumento para completar uma transação de pagamento. Para funcionar, eles devem se parecer com os PANs reais. Vários HVTs podem mapear de volta para um único PAN e um único cartão de crédito físico sem que o proprietário saiba.

Além disso, os HVTs podem ser limitados a certas redes e / ou comerciantes, enquanto os PANs não.

Os HVTs também podem ser vinculados a dispositivos específicos para que anomalias entre o uso de tokens, dispositivos físicos e localizações geográficas possam ser sinalizadas como potencialmente fraudulentas.

Tokens de baixo valor (LVTs) ou tokens de segurança

Os LVTs também atuam como substitutos dos PANs reais nas transações de pagamento, mas têm um propósito diferente. Os LVTs não podem ser usados ​​sozinhos para completar uma transação de pagamento. Para que um LVT funcione, deve ser possível correspondê-lo ao PAN real que ele representa, embora apenas de uma forma rigidamente controlada. Usar tokens para proteger PANs torna-se ineficaz se um sistema de tokenização for violado, portanto, proteger o próprio sistema de tokenização é extremamente importante.

Operações, limitações e evolução do sistema

Os sistemas de tokenização de primeira geração usam um banco de dados para mapear de dados ativos para tokens substitutos substitutos e vice-versa. Isso requer armazenamento, gerenciamento e backup contínuo para cada nova transação adicionada ao banco de dados de tokens para evitar perda de dados. Outro problema é garantir a consistência entre os data centers, exigindo a sincronização contínua dos bancos de dados de tokens. Compromissos significativos de consistência, disponibilidade e desempenho, de acordo com o teorema do CAP , são inevitáveis ​​com essa abordagem. Essa sobrecarga adiciona complexidade ao processamento de transações em tempo real para evitar a perda de dados e para garantir a integridade dos dados nos data centers, além de limitar a escala. O armazenamento de todos os dados confidenciais em um serviço cria um alvo atraente para ataques e comprometimento, e apresenta privacidade e risco legal na agregação de privacidade de dados na Internet , especialmente na UE .

Outra limitação das tecnologias de tokenização é medir o nível de segurança de uma determinada solução por meio de validação independente. Com a falta de padrões, o último é crítico para estabelecer a força da tokenização oferecida quando os tokens são usados ​​para conformidade regulamentar. O PCI Council recomenda verificação independente e validação de quaisquer reivindicações de segurança e conformidade: "Os comerciantes que consideram o uso de tokenização devem realizar uma avaliação completa e análise de risco para identificar e documentar as características exclusivas de sua implementação particular, incluindo todas as interações com dados de cartão de pagamento e os sistemas e processos de tokenização específicos "

O método de geração de tokens também pode ter limitações do ponto de vista da segurança. Com preocupações sobre segurança e ataques a geradores de números aleatórios , que são uma escolha comum para a geração de tokens e tabelas de mapeamento de tokens, o escrutínio deve ser aplicado para garantir que métodos comprovados e validados sejam usados ​​em vez de design arbitrário. Os geradores de números aleatórios têm limitações em termos de velocidade, entropia, propagação e polarização, e as propriedades de segurança devem ser cuidadosamente analisadas e medidas para evitar previsibilidade e comprometimento.

Com a crescente adoção da tokenização, novas abordagens de tecnologia de tokenização surgiram para remover tais riscos e complexidades operacionais e para permitir maior escala adequada para casos de uso emergentes de big data e processamento de transações de alto desempenho, especialmente em serviços financeiros e bancários. A tokenização sem estado permite o mapeamento aleatório de elementos de dados ativos para valores substitutos sem a necessidade de um banco de dados, enquanto retém as propriedades de isolamento da tokenização.

Em novembro de 2014, a American Express lançou seu serviço de token que atende ao padrão de tokenização EMV .

Aplicação a sistemas de pagamento alternativos

A construção de um sistema de pagamentos alternativo exige que várias entidades trabalhem juntas para fornecer comunicação de campo próximo (NFC) ou outros serviços de pagamento baseados em tecnologia para os usuários finais. Um dos problemas é a interoperabilidade entre os jogadores e para resolver este problema o papel de gestor de serviços de confiança (TSM) é proposto para estabelecer uma ligação técnica entre operadoras de rede móvel (MNO) e prestadores de serviços, para que estas entidades possam trabalhar em conjunto . A tokenização pode desempenhar um papel na mediação de tais serviços.

A tokenização como estratégia de segurança reside na capacidade de substituir um número de cartão real por um substituto (remoção do alvo) e as limitações subsequentes colocadas no número do cartão substituto (redução de risco). Se o valor substituto puder ser usado de forma ilimitada ou mesmo de uma maneira amplamente aplicável, o valor do token ganha tanto valor quanto o número real do cartão de crédito. Nestes casos, o token pode ser protegido por um segundo token dinâmico único para cada transação e também associado a um cartão de pagamento específico. Exemplos de tokens dinâmicos específicos de transação incluem criptogramas usados ​​na especificação EMV.

Aplicação aos padrões PCI DSS

O padrão de segurança de dados do setor de cartões de pagamento , um conjunto de diretrizes de todo o setor que deve ser atendido por qualquer organização que armazene, processe ou transmita dados do portador do cartão, determina que os dados do cartão de crédito sejam protegidos quando armazenados. A tokenização, conforme aplicada aos dados do cartão de pagamento, é frequentemente implementada para atender a essa exigência, substituindo os números do cartão de crédito e ACH em alguns sistemas por um valor aleatório ou sequência de caracteres. Os tokens podem ser formatados de várias maneiras. Alguns provedores de serviço de token ou produtos de tokenização geram os valores substitutos de forma a corresponder ao formato dos dados confidenciais originais. No caso de dados de cartão de pagamento, um token pode ter o mesmo comprimento que um Número de conta principal (número do cartão do banco ) e conter elementos dos dados originais, como os últimos quatro dígitos do número do cartão. Quando uma solicitação de autorização de cartão de pagamento é feita para verificar a legitimidade de uma transação, um token pode ser devolvido ao comerciante em vez do número do cartão, junto com o código de autorização para a transação. O token é armazenado no sistema de recebimento enquanto os dados reais do titular do cartão são mapeados para o token em um sistema de tokenização seguro. O armazenamento de tokens e dados de cartão de pagamento deve estar em conformidade com os padrões PCI atuais, incluindo o uso de criptografia forte .

Padrões (ANSI, PCI Council, Visa e EMV)

A tokenização está atualmente em definição de padrões em ANSI X9 como X9.119 Parte 2 . O X9 é responsável pelos padrões da indústria para criptografia financeira e proteção de dados, incluindo gerenciamento de PIN de cartão de pagamento, criptografia de cartão de crédito e débito e tecnologias e processos relacionados. O PCI Council também declarou apoio à tokenização na redução do risco de violações de dados, quando combinada com outras tecnologias, como criptografia ponto a ponto (P2PE) e avaliações de conformidade com as diretrizes do PCI DSS. A Visa Inc. lançou as Melhores Práticas de Tokenização Visa para usos de tokenização em aplicativos e serviços de gerenciamento de cartão de crédito e débito. Em março de 2014, a EMVCo LLC lançou sua primeira especificação de tokenização de pagamento para EMV . O NIST padronizou os algoritmos de criptografia de preservação de formato FF1 e FF3 em sua publicação especial 800-38G.

Redução de risco

A tokenização pode dificultar o acesso dos invasores a dados confidenciais fora do sistema ou serviço de tokenização. A implementação de tokenização pode simplificar os requisitos do PCI DSS , pois os sistemas que não armazenam ou processam dados confidenciais podem ter uma redução dos controles aplicáveis ​​exigidos pelas diretrizes do PCI DSS.

Como prática recomendada de segurança, a avaliação e validação independente de qualquer tecnologia usada para proteção de dados, incluindo tokenização, deve estar em vigor para estabelecer a segurança e a força do método e implementação antes que qualquer reivindicação de conformidade de privacidade, conformidade regulatória e segurança de dados possa ser feito. Essa validação é particularmente importante na tokenização, pois os tokens são compartilhados externamente em uso geral e, portanto, expostos em ambientes de alto risco e baixa confiança. A inviabilidade de reverter um token ou conjunto de tokens para dados confidenciais ativos deve ser estabelecida usando medições e provas aceitas pelo setor por especialistas apropriados, independentes do provedor de serviço ou solução.

Veja também

Referências

links externos

  • Nuvem vs Pagamento - Nuvem vs Pagamento - Introdução à tokenização por meio de pagamentos em nuvem.