Reconhecimento facial – Regular, banir ou punir?

Reconhecimento facial – Regular, banir ou punir?

Louise Marie Hurel, relações internacionais

 

Em dezembro de 2018 o presidente da Microsoft, Brad Smith, escreveu um blog post que ganhou repercussão internacional. Sua mensagem era clara: chegou a hora de se regular o uso e implementação de tecnologias de reconhecimento facial. “Governos precisam adotar leis para regular esse tipo de tecnologia […] e a indústria precisa adotar medidas que a torne mais responsável no processo de desenvolvimento”.1 De acordo com Brad, se o reconhecimento facial seguir o mantra do Vale do Silício de “move fast and break things” (avançar e quebrar coisas), é possível que direitos fundamentais sejam profundamente fragilizados nesse processo.
Ao longo de nossas vidas, aprendemos a classificar o que é um carro, uma casa, um sofá e uma comida. Aprendemos a identificar objetos, pessoas e emoções. Para isso, nossa mente guarda lembranças de diferentes rostos, corpos e traços e, conforme interagirmos socialmente, redefinimos as fronteiras do que é familiar, estranho, reconhecível e irreconhecível. Desde o início da década de 1960, cientistas e pesquisadores buscam compreender como codificar esse aprendizado e desenvolver métodos para a determinação de padrões para reconhecimento facial. Por meio de aprendizado em máquina, os algoritmos automatizam o acesso a registros faciais, reconhecem e traçam relações entre diferentes categorias de rostos. O software ou tecnologia de reconhecimento facial pode servir tanto no processo de identificação estática ou em movimento, ou seja, de “pessoas parecidas com você” em uma foto (opção de “marcar” no Facebook) ou na gravação de vídeos em câmeras de CCTV. Quase 60 anos se passaram desde os primeiros passos da automação do reconhecimento facial e nos encontramos em uma encruzilhada junto com autoridades públicas e empresas que desenvolveram, comercializaram e/ou implementaram essa tecnologia.
Diferente dos anos 60, vivemos em um mundo no qual Internet, smartphones, sensores, banda larga são uma realidade para muitos (mas ainda longe de ser uma realidade para todos). Fala-se da Indústria 4.0, de computadores quânticos, inteligência artificial, computação na nuvem e capacidades de processamento e armazenamento de dados sem precedentes. Por outro lado, seja impulsionado pelas revelações de Snowden em 2013, Cambridge Analytica em 2017, ou diversos casos de vazamento de dados e/ou uso inadequado de dados pessoais, o entusiasmo tecnológico é acompanhado por crescentes preocupações com a proteção de dados, privacidade, transparência e liberdade de expressão. Se em algum momento chegamos a achar que o mundo virtual era separado do real, essa imagem já virou história.
O debate sobre a regulação do reconhecimento facial é incipiente, e a sua implementação é exploratória e experimental. Conforme veremos, o reconhecimento e registro de faces depende de, pelo menos, três processos: (i) expansão das capacidades de processamento, coleta e armazenamento (ex: data centers) de dados, (ii) disseminação de sensores e dispositivos (smartphones, tablets, roteadores, câmeras e atuadores) e (iii) aprimoramento de algoritmos de inteligência artificial. Por um lado, essas dinâmicas marcam um contexto favorável para o surgimento de novos modelos de negócio baseados em dados, marketing individualizado, e aprendizado em máquina. Por outro, fornecem um cenário atraente para países e autoridades públicas buscando soluções para segurança, gestão de riscos e autenticação.

Aintrodução do Face ID no novo IPhone X para autenticação de identidade,2 a apreensão de nove suspeitos pela Metropolitan Police no Reino Unido3 em um teste de reconhecimento facial, a instalação de câmeras com essa tecnologia para controle de fraudes em gratuidades de Bilhete Único (desde 2012),4 ou a implementação de reconhecimento facial para detecção de suspeitos e criminosos nos shows da Taylor Swift são apenas alguns exemplos da diversidade de setores e finalidades pelas quais essa tecnologia é empregada. Em grande parte dos casos o indivíduo não tem conhecimento sobre a coleta dos dados, tampouco sobre o seu compartilhamento, armazenamento e associação com outras bases.
Ao passo que a precisão dos algoritmos aumenta (sendo capaz de determinar raça, gênero, emoções e idade), os erros, preconceitos, finalidades, usos e expectativas dos benefícios trazem sérias preocupações sobre a instauração de um sistema de vigilância sem precedentes. E este sistema de vigilância se sustenta em práticas de ordenamento, classificação e identificação. No Brasil ainda carecemos de um debate público e acessível sobre o tema, no entanto, a aplicação da tecnologia de monitoramento precede o debate. Esse é o caso, por exemplo, da mais recente notícia sobre a utilização de reconhecimento facial pela Polícia Militar no Rio de Janeiro para monitorar zonas turísticas durante o Carnaval.5
Nesse cenário, reflexões fazem-se necessárias para se compreender os impactos do reconhecimento facial dentro de um país com uma população diversa (composta por negros, indígenas, brancos, pardos), economicamente desigual e com diferentes graus de entendimento sobre o uso de tecnologias de informação e comunicação. Devemos perguntar: o que os algoritmos estão aprendendo no processo de monitoramento? Qual é o propósito da implementação dessa tecnologia? Quais direitos estão sendo colocados em xeque?
O crescente interesse de países nos benefícios esperados do uso de reconhecimento facial é acompanhado por uma (ainda incipiente) discussão sobre privacidade e proteção de dados. Esse foi o caso, por exemplo, da decisão do Tribunal de Justiça de São Paulo, em 2018, proibindo o uso de reconhecimento facial pela empresa ViaQuatro para fins de publicidade por violar o direito constitucional à intimidade e à vida privada, o direito à informação e à liberdade de escolha.6 Regulações como a General Data Protection Regulation (GDPR) europeia e a Lei Geral de Proteção de Dados Brasileira buscam categorizar diferentes tipos de dados pessoais, criar salvaguardas para indivíduos e especificar o uso devido e indevido desses dados.7 De 2015 a 2017 o número de leis de proteção de dados passou de 109 para 1208, e princípios como minimização de dados, finalidade de uso e consentimento gradualmente se consolidam como jargão comum em diferentes regiões.
No entanto, o contexto atual também é marcado pelo pouco conhecimento sobre o impacto e benefício dessa tecnologia, alta oferta e comercialização e implementação por múltiplos setores (bancos, lojas, transportes). A ausência de uma reflexão crítica sobre o tema e de um debate público sobre os usos e consequências do reconhecimento facial pode aumentar clivagens sociais, resultar em práticas de monitoramento e policiamento discriminatório, enfraquecimento de direitos constitucionais e instauração de um sistema de vigilância em massa. Neste breve ensaio, busco apresentar três perspectivas para a regulação do reconhecimento facial. Contudo, meu objetivo é o de situar e contextualizar essa discussão em um panorama histórico de tecnologias de medição e organização de dados, apontando para os riscos da sua implementação. Dessa forma, espero que possamos compreender que, para além da coleta de traços, o reconhecimento facial integra um conjunto de tecnologias de monitoramento e vigilância que organiza e classifica pessoas e direitos.

Mito ou Verdade? Novo ou Velho?
O uso de sistemas e tecnologias de reconhecimento facial não é algo inteiramente novo, tem raízes em práticas históricas de medição e identificação de indivíduos. Há séculos o Estado e diversas instituições buscam aprimorar formas de medir, arquivar e acessar informações sobre indivíduos de forma eficiente. Documentos de identidade, fotografias e assinaturas são apenas alguns exemplos de tecnologias de identificação que precedem a expansão de redes computacionais.9 Em meados do século XIX, a polícia britânica começou a contratar fotógrafos para o registro de infratores. Nesse contexto, a foto servia como um meio de conectar o corpo e a identidade do indivíduo e como um mediador no processo de construção de verdades. Sendo assim, a foto se torna uma tecnologia de caráter constitutivo na construção da evidência (se a pessoa é ou não quem ela diz ser; ou se é infratora ou não).10 Outras técnicas como a frenologia, a datiloscopia (identificação humana por meio do estudo de impressões digitais) e a antropometria (técnicas para medir o corpo humano e suas partes) também ganharam destaque, mas nenhuma conseguiu atingir alto grau de implementação mundial.
A confiança de-
terminística em téc-
nicas enquanto utensílios neutros e apolíticos, bem como facilitadores de eficiência no processo de identificação merece atenção. Historicamente, técnicas como a frenologia – que busca inferir características, personalidade e caráter a partir do estudo do crânio – resultou em sérios aprofundamentos no determinismo racial na África do Sul durante a atuação do Império Britânico no início do século XIX.11 Servindo, também, para sustentar maior controle, desigualdade e vigilância de uma determinada categoria de corpos. Hoje, a discriminação racial e de gênero permanece um desafio latente no debate sobre ética, imparcialidade, transparência e prestação de contas no contexto de tecnologias de reconhecimento facial e entre outras baseadas em big data, aprendizado em máquina e algoritmos.
O reconhecimento facial combina técnicas de medição de traços com a coleta, organização e correlação de dados biométricos. No início do século XIX o registro fotográfico se tornou prática comum pela polícia para identificar suspeitos e criminosos. Agora, o reconhecimento facial se apresenta como tecnologia de precisão para a identificação de familiaridades, características e emoções derivadas da “assinatura facial”. Isso é perfeitamente possível, pois o registro facial é único para cada indivíduo (dado biométrico). De acordo com Gates,12 a biometria é a expressão mais moderna de se resolver a mediação da identificação de pessoas por meio da implementação de técnicas estatísticas. O argumento, nesse caso, é de que a coleta do dado biométrico permite que a pessoa possa ser identificada pelo que ela é e não pelo que ela tem (cartão, carteira de identidade, token) ou sabe (senha, data de nascimento e outras informações).13 Transfere-se a mediação entre identidade e indivíduo de um objeto para um sistema de reconhecimento automatizado.
Dessa forma, podemos nos questionar: Se esses sistemas e metodologias estão sendo desenvolvidos desde 1960, por que só estão ganhando escala agora?
A implementação do reconhecimento facial depende dos seguintes facilitadores:
Capacidade de se quantificar (ou “dataficar”14) um ambiente, de forma que esses dados possam ser tabulados, analisados e referenciados: Os primeiros passos da literatura sobre reconhecimento de face datam do final da década de 60 e início da década de 70.15 Nesse período, pesquisadores desenvolveram as metodologias de medição e reconhecimento de padrões de face manuais (pattern recognition) passando, pouco depois, para uma nova fronteira de processos automatizados. O reconhecimento por intuição humana (fotografia) é substituído pelo reconhecimento baseado em metodologias de aferição métrica que, por sua vez, finalmente atingem a automação da identificação por máquinas, softwares e sistemas de inteligência artificial.
Maior capacidade de armazenamento de registros: Em 1999, o programa Face Recognition Technology (FERET) do Laboratório do Exército dos EUA foi um dos primeiros a fornecer uma grande base de dados para a condução de testes com algoritmos para reconhecimento facial.16 Hoje, diversas companhias coletam indiscriminadamente esses dados. Um dos braços de pesquisa do Facebook, Dense Pose, coletou mapas de mais de 50 mil indivíduos com o objetivo de atingir o reconhecimento “ao vivo” e 3D de diferentes pontos do corpo humano. Dessa forma, avançando no reconhecimento de gestos corporais integrado ao registro facial. Dono da maior base de dados faciais do mundo, o Facebook implementa reconhecimento facial desde 2010 e tem aprimorado seus algoritmos desde então, chegando a uma precisão de 97% de acertos em identificação.17
Refinamento de classificações de pessoas e determinação de correlações:18 Complementar ao processo de medição e quantificação, a inteligência artificial presente nos softwares de reconhecimento facial também tem por finalidade a classificar traços (gênero, raça, idade) e categorizar de acordo com o objetivo da atividade automatizada. Ao cruzar o software com bases de dados, esses sistemas abrem espaço para a criação de novas “listas negras”. A empresa Faception chega a argumentar que seus algoritmos são capazes de determinar a diferença entre uma empreendedora, uma acadêmica, um terrorista e uma pessoa “psicologicamente desequilibrada”.
A aproximação e normalização dessas tecnologias como coadjuvantes do dia a dia da governança da segurança pública, dos meios de transporte, das cidades, de redes sociais, e de dispositivos inteligentes estabelece um sistema de vigilância baseado em práticas de ordenamento e ordem social.19 A modificação de câmeras CCTV identificação “ao vivo” de pessoas traz profundas questões sobre o cerceamento de direitos, tal como a privacidade, liberdade de expressão, livre manifestação, acesso à informação e o direito de ir e vir. O mais recente caso do sistema de crédito social da China é uma expressão da forma com a qual o reconhecimento facial (e entre outras tecnologias) é aplicado de forma autoritária para fins de controle social.

Essas tecnologias não só mediam a relação entre identidade e corpo, mas também entre direitos e finalidades, podendo ser utilizadas para fortalecê-los ou introduzir novas dimensões de autoritarismo, controle e vigilância estatal. A acadêmica Shoshanna Zubboff chama esse contexto de “capitalismo de vigilância”, no qual passamos de um modelo de produção em massa caracterizado pela linha de produção Fordista, onde o indivíduo aceita um modelo padrão, para um mercado individualizado (ex: Fitbit) com inferências individualizadas (monitoramento do status de saúde física). Nesse caso, os dados operam como moeda de troca para marketing direcionado, serviços personalizados e promessas de que essas tecnologias invariavelmente irão proporcionar maior segurança, aprimoramento do combate a fraudes e entre outros benefícios. Em um contexto democrático é fundamental que o Brasil e outros países ponderem os objetivos, finalidades e resultados esperados da coleta do registro facial vis-à-vis as consequências e os impactos para o exercício de direitos.

Caminhos (im)possíveis?

Punir
A China capturou a atenção internacional desde que anunciou seu plano de desenvolver um sistema de crédito social em 2018. Idealizado em 1990 e fundado em 2014, o plano já começou a ser implementado em diferentes cidades, tal como em Rongcheng, na província de Shandong, mas o governo tem por meta lançar o sistema nacional de crédito a partir de 2020.20 O reconhecimento facial é apenas um dos componentes dentro do Sistema de Crédito Social Chinês, no entanto, opera como um poderoso mecanismo para o controle, rastreamento identitário (ID-Linked Codes) e censura. Nesse contexto, cidadãos são deixados às suas próprias escolhas, sem ter conhecimento sobre os contratos e licitações assinadas entre o governo e empresas de tecnologia. Ademais, o sistema estabelece um histórico centralizado comportamental que opera como uma bússola moral, favorecendo os “bons” e punindo os “maus”. Conforme métricas de comportamento, são designadas e as punições calculadas, o Sistema ganha robustez nacional.
Existem limitações para esse processo. A instauração de um sistema de vigilância ubíqua requer uma infraestrutura integrada e granular. Atualmente, o país possui 170 milhões de câmeras, e ainda espera mais 400 milhões. A capacidade de processamento e correlação de milhares de rostos ao mesmo tempo ainda é uma tarefa desafiadora, apesar dos avanços. Este é o caso do Face++, plataforma da empresa Megvii, que já facilitou a apreensão de mais de 4.000 pessoas, mas ainda não consegue fazer em escala – dependem da determinação de onde e quais pessoas a polícia gostaria de identificar.21

Banir
Legisladores municipais de São Francisco já propuseram o banimento do uso de reconhecimento facial. Atualmente o estado de Washington e o de Massachusetts também estão considerando adotar essa posição. O argumento, nesse caso, parte do ponto de que a coleta da assinatura facial de uma pessoa prova-se um dado com alto grau de sensibilidade. O reconhecimento facial é altamente intrusivo, pois, diferente de outras formas de coleta biométrica, esse extrai o dado à distância. Não requer que você se dirija ao DETRAN, por exemplo, para tirar a habilitação nem em nenhuma repartição pública. Outra preocupação se refere ao o risco de falsos positivos e falsos negativos em processos de identificação. Em 2018, a polícia do Reino Unido foi altamente criticada ao afirmar que não tinha problema utilizar um software com 92% de falsos positivos, tendo apreendido mais de 450 pessoas em poucos meses.22
Por mais que esse posicionamento possa ser interpretado como radical, seu princípio norteador é de que a tecnologia não pode ser empregada na ausência de um debate público e do conhecimento sobre as taxas e riscos de falsos positivos. Sua capacidade de precisão e potenciais benefícios setoriais não se sobrepõem ao debate sobre direitos e proporcionalidade do uso.

Regular
Em meados de 2018, a Microsoft recomendou que o governo dos Estados Unidos tomasse um posicionamento proativo para regular o uso de reconhecimento facial. Propuseram uma lista de princípios, tais como não discriminação, transparência, prestação de contas, consentimento e vigilância legal (lawful surveillance). Relatórios de organizações como o AI Now Institute argumentam que qualquer regulação para reconhecimento facial deve proteger o interesse público.
Este é talvez o mais desafiador e complexo dos cenários, pois vai de encontro com a interpretação de o que é “apropriado”, “ético”, “proporcional” e “consensual”. Indivíduos deveriam poder recusar práticas de coleta de seus registros faciais, seja para o uso comercial ou para fins de segurança pública. De acordo com centros de pesquisa e organizações da sociedade civil, a regulação, nesse caso, deve abarcar tanto o setor público quanto o privado. Escolas e universidades já estão implementando a tecnologia no Brasil, seja para controlar a presença de alunos ou para evitar fraudes. Se o indivíduo for criança ou menor de idade, cabe considerar qual o lastro digital que se está construindo ao utilizar essas tecnologias sem que sejam optativas e consensuais. Deve-se questionar, também, qual tipo de regulação é desejável. O Projeto de Lei 9736/2018, por exemplo, acrescenta dispositivo à Lei de Execução Penal para incluir a previsão de identificação por reconhecimento facial de custodiados. Em um contexto de centralização de RG, CPF e dados biométricos previstos no novo Documento Nacional de Identificação, a ausência de parâmetros claros sobre a finalidade, uso, segurança (no armazenamento) e compartilhamento de dados, podem acabar perpetuando um sistema de vigilância sem mecanismos de fiscalização.

E o Brasil?
Assim como em outros países, o Brasil enfrenta um momento decisivo. Regular, banir ou punir é a questão. A implementação de reconhecimento facial deve ser acompanhada de um debate e uma reflexão cautelosa (e crítica) sobre o tipo de sociedade que se está construindo.
Também se faz necessário contextualizar o debate sobre o reconhecimento facial dentro das realidades regionais e nacionais. Em uma população diversa e marcada por profundas desigualdades sociais, econômicas e culturais, o reconhecimento facial, enquanto uma prática de classificação, pode acabar perpetuando e aumentando as clivagens de nossa sociedade. Isso se prova mais preocupante, uma vez que grande parte dos erros de identificação atinge, especificamente, negros, mulheres, trans e jovens (sendo mulheres negras as mais afetadas).23 Novas metodologias de aprendizado buscam diversificar a base de dados para que o software aprenda a reconhecer com mais precisão raça e gênero. Ainda incipientes, essas respostas ainda não atendem ao fato de que não se trata somente da precisão da foto, mas da discriminação ou tendência que se cria em um contexto no qual 61% da população carcerária são compostos por negros e pardos,24 por exemplo. Sem conscientização, debate público, princípios, estratégias e diretrizes sobre a coleta, processamento, utilização e compartilhamento do registro facial abre-se espaço para uma vigilância invisível, intrusiva, desproporcional e sem respaldo legal.

A autora é coordenadora dos projetos na área de Segurança e Liberdades Digitais do Instituto Igarapé e pesquisadora do Núcleo Avaliação da Conjuntura da Escola de Guerra Naval.
louise.marie.hsd@gmail.com

NOTAS DE RODAPÉ

1 Smith, 2018a.
2 deAgonia, 2017.
3 Metropolitan Police, 2019.
4 Ventura, 2015.
5 Araújo, 2019.
6 Olhar, 2018.
7 Monteiro, 2018.
8 Greenleaf, 2018.
9 Caplan e Torpey, 2001.
10 Gates, 2004.
11 Bank, 1996.
12 Gates, 2011.
13 Delac e Grgic, 2004.
14 Mayer-Schönberger e Cukier, 2013.
15 Gates, 2004.
16 Weng e Swets, 1999; Gates, 2011.
17 Brewster, 2018.
18 2013.
19 Lyon, 2003.
20 Mistreanu, 2018.
21 Jacobs, 2018.
22 Farivar, 2018
23 Gault, 2019.
24 Câmara, 2018

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *