Coding Rights
Published in

Coding Rights

Reconhecimento Facial no Brasil: uma perspectiva de raça e gênero

*Artigo de Bianca Kremer, fellow de dados e feminismos da Coding Rights, originalmente publicado em inglês no site da ADAPT/Internews

O debate sobre reconhecimento facial no Brasil foi acalorado no ano de 2021, sobretudo na área de segurança pública. A tecnologia já vem sendo implementada ou utilizada por vinte estados das cinco regiões do país, e tem sido objeto de muitas promessas pelo setor privado e pela administração pública, que vão desde a prevenção de crimes até a identificação de crianças desaparecidas.

Mas afinal, o que é o reconhecimento facial e como ele funciona? Trata-se de uma tecnologia de identificação biométrica realizada a partir da coleta de dados faciais, que podem ser provenientes de fotografias ou segmentos de vídeos. Esses sistemas automatizados extraem representações matemáticas de traços faciais específicos como, por exemplo, a distância entre os olhos ou o formato do nariz, produzindo o que é chamado de padrão facial.

É justamente no processo de comparação desse padrão facial a outros padrões faciais contidos na base de dados prévia do sistema que a tecnologia identifica indivíduos desconhecidos, como é o caso das câmeras de monitoramento nas ruas, ou autentica pessoas conhecidas, a exemplo do desbloqueio de celulares com Face ID e da validação de contas bancárias em smartphones.

O reconhecimento facial tem sido apresentado por parlamentares, governadores e policiais como uma verdadeira bala de prata para uma série de soluções no campo da segurança pública no país. Sobretudo com o discurso de uma alegada celeridade nas atividades policiais e maior acurácia para o cumprimento dos mandados de prisão que permanecem em aberto. Mas, afinal, em que medida as possibilidades e promessas desse recurso vão de encontro com os riscos e controvérsias de seu uso?

O reconhecimento facial tem sido uma ferramenta capaz de reproduzir e potencializar opressões já presentes na sociedade, sobretudo nas forças de segurança. Quando utilizado em políticas públicas, por exemplo, os vieses presentes nos algoritmos podem trazer implicações bastante problemáticas.

Elementos técnicos, somados a fatores econômicos, históricos e culturais, afetam sobremaneira minorias étnicas e raciais e pessoas trans. As taxas de acerto na identificação/ autenticação por reconhecimento facial estão condicionadas por diferentes fatores, e envolvem iluminação, perspectiva, sombras, expressões faciais, e até mesmo a resolução das imagens e vídeos. Além disso, o treinamento do sistema, aliado à qualidade e ao tamanho dos Datasets (conjuntos de dados) utilizados para aferir o padrão facial dos transeuntes também influencia de maneira significativa os resultados aferidos.

Existe também uma discrepância muito grande entre as pessoas que desenvolvem essas tecnologias, e as que são impactadas por elas. As estatísticas, estudos e políticas públicas voltadas para mulheres na tecnologia, sobretudo negras, são incipientes no país, e faltam dados precisos para medir sua presença nesses espaços e fomentar políticas afirmativas de inclusão. Segundo levantamento do Grupo de Gênero da Escola Politécnica da USP (Poligen), em 120 anos a USP formou apenas 10 mulheres negras. E na lista das mulheres pioneiras das ciências no Brasil, criada pelo CNPq, apenas uma mulher negra é citada somente na 7a Edição (2021): a historiadora e ativista Beatriz Nascimento.

Quando consideramos a trajetória histórica de seletividade racial no país, em especial no campo da segurança pública, o resultado é ainda mais dramático. Em recente audiência pública sobre reconhecimento facial e racismo algorítmico realizada na Assembleia Legislativa da Bahia, especialistas e ativistas pleitearam o banimento do uso dessa tecnologia, demonstrando como o racismo é impulsionado por mecanismos tecnológicos de reconhecimento facial em países como o Brasil, moldado pela escravização e pela violência policial.

O ano de 2019 foi o pontapé inicial para a adoção do reconhecimento facial na segurança pública no Brasil. À ocasião, as cidades do Rio de Janeiro e Salvador colocaram em teste um modelo dessa natureza por meio de câmeras de segurança instaladas nas vias. O objetivo era que as autoridades pudessem monitorar as festividades do Carnaval remotamente, identificando pessoas com mandado de prisão em aberto, com passagem na polícia e também desaparecidos. Foram 151 pessoas presas durante as festividades com o uso da ferramenta, que foi suspensa no Rio de Janeiro, mas prosseguiu em Salvador que, até o momento, soma 221 pessoas presas por reconhecimento facial.

Somado a isso, seis meses depois o então ministro da Justiça Sergio Moro (atualmente candidato à presidência em 2022) baixou uma portaria incentivando a adesão voluntária de municípios a um projeto-piloto de sua autoria, denominado Em Frente Brasil. A iniciativa contava com a aplicação de recursos federais no importe de R$ 19 milhões em 2019 a cada município aderente, mais 25 milhões em 2020. A finalidade era de realizar experimentos que embasassem a criação de um programa nacional voltado à investigação de homicídios e crimes violentos. Mas um ano e oito meses depois, a iniciativa terminou em fracasso e com resultados decepcionantes: atraso de mais de um ano em sua conclusão, esvaziamento orçamentário e estrutural, e completa ausência de indicativos de que a tecnologia auxiliou qualquer redução substancial de homicídios nas cinco cidades testadas.

O reconhecimento facial tem sido o carro-chefe de grandes promessas na segurança pública, que em nada coadunam com a realidade dos fatos. Populações socialmente vulneráveis são constantemente sujeitas à automatização de constrangimentos e violências, como abordagens policiais indevidas e atribuição inverídica de antecedentes criminais. Foi o caso do cientista de dados Raoni Lázaro Barbosa, preso injustamente no portão de sua casa em setembro de 2021, acusado de integrar a base de dados de procurados pela polícia por pertencer a uma milícia em Duque de Caxias.

Outro caso expressivo foi o do pedreiro José Domingos Leitão em dezembro de 2021 no Piauí, acordado por policiais civis de madrugada com gritos e chutes na porta de sua casa, após um programa de reconhecimento facial confundi-lo como autor de um crime que não cometeu em Brasilia (aproximadamente 1.200 quilômetros de distância de onde reside).

Tanto Raoni quanto José tinham um elemento em comum: eram homens negros. Os vieses raciais contidos nos algoritmos de reconhecimento facial ganham outros contornos no campo da segurança pública. As condições de produção, armazenamento e atualização das bases de dados desses sistemas pelo setor público são uma verdadeira caixa preta. Somado a isso, no contexto regulatório brasileiro, ainda não existe uma legislação que regulamente o uso de reconhecimento facial e outras técnicas de inteligência artificial.

Segundo a Lei Geral de Proteção de Dados (LGPD), os dados biométricos utilizados no funcionamento das tecnologias de reconhecimento facial se encaixam na categoria de dado pessoal sensível. Trata-se de uma informação íntima capaz de promover a estigmatização do sujeito. Uma vez trazido à tona um dado sensível, esta ação será irreversível, razão pela qual o cuidado com o tratamento de dados pessoais dessa natureza se dá de modo diferenciado nos termos da Lei. Dados biométricos são personalíssimos e exclusivos em cada indivíduo.

A falta de transparência no modo como essas informações são capturadas e utilizadas pelo setor público causam grande preocupação. Ainda mais considerando que a LGPD traz exceções ao uso de dados para segurança pública, segurança do Estado e investigações criminais. Dito de outra forma: apesar da força cogente da norma em seus princípios gerais e boas práticas, ainda não existe regulação específica para o uso de dados pessoais e de tecnologias de IA no campo da segurança pública. Também falta transparência e explicabilidade sobre o uso dessa tecnologia aos cidadãos brasileiros.

Por essa razão, e a partir desses e outros muitos relatos de violência promovida por essa ferramenta, nunca foi tão importante efetivar o banimento do uso desta tecnologia na segurança pública. Não há transparência em relação aos contratos de fornecimento desses sistemas, nem se sabe ao certo quais são os critérios utilizados para reconhecimento de padrões faciais, ou como funcionam os inputs nos Datasets. Para agravar ainda mais a situação, sequer existe uma regulamentação específica de como essa tecnologia pode ser implementada de maneira a assegurar direitos e garantias fundamentais.

A Coding Rights tem se posicionado de maneira ativa em diversas agendas pró-banimento dessa tecnologia, reconhecendo os vieses violentos que essa aplicação inflige à população negra em caráter interseccional. Para tanto, vêm construindo coletivamente uma campanha nacional pelo banimento do reconhecimento facial, enquanto integrante da Coalizão Direitos na Rede (grupo que conta com mais de 50 organizações acadêmicas e da sociedade civil em defesa dos direitos digitais).

Em janeiro de 2021 lançamos a pesquisa Reconhecimento Facial no setor público e identidades trans, em parceria com a pesquisadora e ativista Mariah Rafaela. A pesquisa demonstra as ameaças à diversidade de gênero, raça, classe e sexualidade no processo de autenticação de identidades de pessoas transsexuais em espaços públicos. Também desenvolvemos a Websérie Das Telas aos Corpos, sendo o segundo episódio sobre reconhecimento facial, trazendo entrevistas com a Joy Buolamwini, Nina da Hora e Mariah Silva para demonstrar como o panorama de desenvolvimento tecnológico protagonizado por homens brancos têm intensificado a vulnerabilidade de grupos minorizados, principalmente mulheres negras e pessoas trans.

Também lançamos um episódio de podcast bilíngue (inglês/ português) na série Privacy is Global, em parceria com Internews, denominado “Reconhecimento Facial: automatizando opressões?”. Nele apresentamos os riscos dessa tecnologia no contexto brasileiro, e entrevistamos especialistas no tema.

Por fim, nossas atividades de advocacy em matéria de reconhecimento facial também ganharam contornos mais robustos em 2021. Participamos da redação dos primeiros projetos de lei de todo o país que endereçam o banimento dessa tecnologia. O primeiro no Município do Rio de Janeiro, proibindo o uso de tecnologias de reconhecimento facial pelo poder executivo municipal. O segundo, no Estado do Rio de Janeiro, que traz uma abrangência maior de restrição ao uso desses sistemas pelo poder público.

As relações históricas de desigualdade no Brasil conformam as condições de produção e proliferação do reconhecimento facial na segurança pública. Tecnologias e políticas públicas precisam apresentar um olhar interseccional para se desenvolver de maneira inclusiva, considerando as assimetrias de poder e práticas históricas de exclusão. Razão pela qual o banimento do reconhecimento facial é assunto da ordem do dia, e não apenas merece, como precisa ser considerado para a construção de uma sociedade verdadeiramente plural e igualitária.

--

--

--

Coding Rights é uma organização que traz um olhar feminista interseccional para defender os direitos humanos no desenvolvimento, regulação e uso das tecnologias.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Coding Rights

Coding Rights

Tecnologia e Direitos Humanos

More from Medium

Dog Breed Classification using CNNs and Transfer learning

Basketball — A Game Of Action

Are You an Eagle or a Crane?

Feminism, Sentiment Analysis and biases of Natural Language Processing: A Theoretical Approach