Coding Rights
Published in

Coding Rights

Parlamentares de todas as regiões do Brasil apresentam projetos de lei pelo banimento do reconhecimento facial em espaços públicos

Mais de 50 parlamentares atuando no legislativo municipal ou estadual de 13 estados estão mobilizados na iniciativa denominada #SaiDaMinhaCara

A partir de hoje, dia 21 de junho, mais de 50 parlamentares de diferentes partidos apresentam projetos de lei pelo banimento do reconhecimento facial em espaços públicos. A iniciativa #SaiDaMinhaCara demonstra um consenso multipartidário sobre o caráter invasivo e discriminatório dessa tecnologia, principalmente quando aplicada sob uma pretensa narrativa de segurança pública. Com essa “chuva” de projetos de leis, o Brasil entra na tendência mundial de restringir determinados usos de tal tecnologia.

Polos de desenvolvimento dessa tecnologia já eliminaram seu uso para fins de policiamento. São Francisco, onde estão localizadas as grandes empresas de tecnologia do Vale do Silício, foi a primeira cidade dos Estados Unidos a aprovar, em 2019, a proibição do uso do reconhecimento facial pela polícia e outras agências públicas. Em 2020, foi a vez de Boston e Cambridge, onde estão localizados Harvard e o MIT, polos universitários do debate tecnológico. Na Europa, em outubro de 2021, o Parlamento Europeu também votou a favor do banimento após manifestação da Autoridade Europeia para a Proteção de Dados (AEPD).

Agora, 12 estados e o Distrito Federal tiveram PLs apresentados no Brasil, seja no nível estadual ou municipal. São eles: Bahia, Ceará, Espírito Santo, Distrito Federal, Minas Gerais, Pará, Pernambuco, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina, Sergipe e São Paulo.

“Essa é uma articulação que envolveu diversos partidos políticos e durante todo esse processo evidenciou-se ainda mais que o uso de tecnologias de reconhecimento facial se encontra em diferentes estágios ao longo dos municípios e estados brasileiros. Encontramos situações que vão desde Prefeituras que impuseram o uso da tecnologia sem qualquer debate público, até experiências concretas de resistência da sociedade civil e movimentos sociais ao uso dessa tecnologia”, relata Jordana Almeida, articuladora de advocacy da Coding Rights.

As razões para o banimento são várias. Estudos comprovam que essa tecnologia é falha e cheia de vieses, com margens de erro particularmente gritantes quando se trata de rostos de pessoas negras, principalmente se forem mulheres ou pessoas trans. O resultado disso é que, se essa tecnologia é utilizada pela polícia e identifica erroneamente alguém, torna-se bem difícil argumentar contra uma máquina que você é você e não alguém procurado pela Justiça.

“Um dos principais desafios na redação de um Projeto de Lei pelo banimento do reconhecimento facial é descortinar a falácia do solucionismo tecnológico para a segurança pública. É importante reconhecer os riscos que lhes são subjacentes, sobretudo o reforço aos padrões de discriminação racial preexistentes no sistema de justiça criminal brasileiro.” afirma Bianca Kremer, fellow da Coding Rights.

No Brasil, desde 2019 houve uma expansão da implementação do reconhecimento facial sob pretexto da segurança pública. No segundo dia de teste dessa tecnologia no Rio de Janeiro, uma mulher foi detida ao ser confundida com uma mulher que já estava em privação de liberdade. No Piauí, um homem foi transferido para o DF e preso injustamente por três dias após um sistema de reconhecimento facial apontá-lo erroneamente como pessoa procurada. Em Salvador, um rapaz de 25 anos com necessidades especiais foi abordado por policiais após ser confundido com um homem procurado por assalto.

“O reconhecimento facial já tem demonstrado seus perigos nas mãos de policiais. Pessoas são detidas de forma equivocada, abordagens violentas acontecem, falta de conhecimento para operar o sistema são algumas das consequências que temos visto. As tecnologias de reconhecimento facial só reforçam o caráter racista da ação policial e dão fôlego a uma ideia equivocada de que prender mais pessoas representa uma melhoria nos índices de violência e criminalidade”, aponta Pablo Nunes, coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC).

Com o temor de serem acusadas de alimentar racismo e mais violência policial, ainda mais depois do assassinato de George Floyd, grandes empresas como IBM, Microsoft e Amazon já não vendem esse tipo de tecnologia para autoridades estatais e para fins de policiamento.

“Se nem as gigantes de tecnologia que, como tal, detém grandes bases de dados e poder de processamento enormes, estão vendendo esses softwares para fins de policiamento, porque deveríamos achar que espalhar isso pelas nossas ruas é uma boa ideia? Nem tudo que é novo ou tecnológico é bom. Já tivemos muitas experiências que demonstram que tecnologias podem ser racistas, excluir pessoas e se tornar instrumentos de vigilância em massa, o reconhecimento facial é uma delas”, afirma Joana Varon, Diretora Executiva da Coding Rights.

Mas muitas outras empresas estão por aí, fazendo vendas milionárias e acordos com governos. Uma tecnologia falha e imprecisa que custa caro para o setor público. Na Bahia, anunciou-se a expansão do sistema de reconhecimento facial para mais de 70 municípios do interior, com o gasto de R$ 665 milhões de reais. Em algumas cidades que “ganharão” as câmeras, faltam escolas, hospitais, serviços de acesso à Justiça, e outros. Mesmo quando uma empresa se oferece para “doar” câmeras, o barato sai caro: aumentam-se gastos com pessoal para usar uma tecnologia que não funciona; a empresa lucra testando seu algoritmo com dados da nossa cara e acaba criando laços com o ente público que podem facilitar ganhar licitações futuras sobre o tema.

Não se trata apenas de aprimorar os algoritmos falhos com tendências racistas. Mesmo que essas tecnologias evoluam para funcionar perfeitamente, outra crítica recorrente à implementação desses sistemas em espaços públicos é a vigilância em massa.

“Vigilância em massa, além de ferir gravemente a privacidade das pessoas, ainda deixa mais vulnerável a população que não é atendida por políticas públicas básicas, como saúde, educação e emprego”, afirma Debora Pio, pesquisadora do Medialab/UFRJ na Rede Lavits.

Ou seja, em uma perversa inversão da presunção de inocência, todas as pessoas no exercício de seu direito fundamental de ir e vir passam a ser tratadas como suspeitas, filmadas, vigiadas e potencialmente identificadas, sem consentimento. Não por menos que a empresa ViaQuatro, que tem a concessão da linha 4-amarela do Metrô de São Paulo, foi condenada a pagar 100 mil reais quando comprovado que houve captação da imagem de usuários, sem o seu consentimento para fins comerciais e, mais recentemente, a Justiça interrompeu a instalação do sistema nas linhas 1-azul, 2-verde e 3-vermelha.

“Neste caso, o TJSP suspendeu o sistema de reconhecimento facial no Metrô de São Paulo por entender que o sistema poderia atingir direitos fundamentais dos cidadãos. Os problemas dessa tecnologia são múltiplos, as estratégias para baní-las também devem ser, e a via legislativa surge como mais um front de batalha pelas restrições no uso do reconhecimento facial em espaços públicos.” cita Luã Cruz, pesquisador do Instituto Brasileiro de Defesa do Consumidor (Idec). Essas são algumas das preocupações e estratégias da #SaiDaMinhaCara.

A iniciativa #SaiDaMinhaCara é estimulada pela Coding Rights, Instituto Brasileiro de Defesa do Consumidor (IDEC), Centro de Estudos de Segurança e Cidadania — (CESeC) e MediaLab-UFRJ/Rede Lavits, organizações especialistas em temas de tecnologia, segurança e direitos humanos que mobilizaram parlamentares em torno da pauta. Os primeiros projetos de lei foram protocolados em 08 de dezembro de 2021 pela Deputada Estadual Dani Monteiro — PSOL RJ (Presidente da Comissão de Direitos Humanos da Assembleia Legislativa do Estado do Rio de Janeiro) e em 27 de setembro de 2021 pelo Vereador Reimont — PT (Presidente da Comissão de Monitoramento no Tema Cidades Inteligentes, na Câmara Municipal do Rio de Janeiro).

Já aderiram à iniciativa:

Benedita da Silva (Câmara dos Deputados); Hilton Coelho (Assembleia Legislativa do Estado da Bahia); Laina Pretas por Salvador (Câmara Municipal de Salvador); Renato Roseno (Assembleia Legislativa do Ceará); Gabriel Aguiar (Câmara Municipal de Fortaleza), Fábio Félix (Câmara Legislativa do Distrito Federal); Camila Valadão (Câmara Municipal de Vitória); Andreia de Jesus (Assembleia Legislativa de Minas Gerais); Bella Gonçalves, Iza Lourença, Macaé Evaristo (Câmara Municipal de Belo Horizonte); Moara Sabóia (Câmara Municipal de Contagem), Bia Caminha, Enfermeira Nazaré Lima, Lívia Duarte (Câmara Municipal de Belém); Juntas por Pernambuco (Assembleia Legislativa de Pernambuco); Dani Portela, Ivan Moraes (Câmara Municipal de Recife); Carol Dartora (Câmara Municipal de Curitiba); Dani Monteiro, Mônica Francisco, Renata Souza (Assembleia Legislativa do Estado do Rio de Janeiro); Benny Briolly, Paulo Eduardo Gomes, Professor Tulio (Câmara Municipal de Niterói); Chico Alencar, Lindbergh Farias, Monica Benício, Paulo Pinheiro, Reimont, Tainá de Paula, Tarcísio Motta, Thaís Ferreira, Wiliam Siri (Câmara Municipal do Rio de Janeiro); Professor Josemar (Câmara Municipal de São Gonçalo); Bruna Rodrigues, Daiana Santos, Karen Santos, Laura Sito , Matheus Gomes (Câmara Municipal de Porto Alegre); Coletiva Bem Viver (Câmara Municipal de Florianópolis); Iran Barbosa (Assembleia Estadual de Sergipe); Linda Brasil (Câmara Municipal de Aracaju); Guida Calixto (Câmara Municipal de Campinas); Flávia Hellen (Câmara Municipal de Paulista); Débora Camilo (Câmara Municipal de Santos); Érica Malunguinho, Isa Penna, Leci Brandão (Assembleia Legislativa de São Paulo); Celso Giannazi, Elaine do Quilombo Periférico, Erika Hilton, Luana Alves, Professor Toninho Vespoli, Silvia da Bancada Ativista (Câmara Municipal de São Paulo).

--

--

--

Coding Rights é uma organização que traz um olhar feminista interseccional para defender os direitos humanos no desenvolvimento, regulação e uso das tecnologias.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Coding Rights

Coding Rights

Tecnologia e Direitos Humanos

More from Medium

Finish Your Song Ready for Release with MYRNE

Extrajudicial killings by Ethiopia’s security forces: rule or exception? — Ethiopia Insight

Florida Groves Festival for Cannabis Culture

Flowers Grow Under My Feet — Jubilee by Japanese Breakfast (2021)