Os problemas dos algoritmos de reconhecimento facial

Tecnologia, marquetada para segurança, é incipiente, cara e tem alto nível de falsos positivos

Marcelo Soares
Numeralha

--

Este texto faz parte da terceira edição da newsletter IdEAs de Inteligência Artificial, que edito como parte da minha atuação como coordenador do grupo de estudos de inteligência artificial no Instituto de Estudos Avançados da Unicamp (IdEA). Caso você queira receber semanalmente a newsletter, assine neste link.

Aplicações de reconhecimento facial têm sido mencionadas como uma das mais promissoras aplicações da inteligência artificial, especialmente no tocante à segurança.

A confluência entre interesses comerciais, interesses políticos e medos sociais, porém, pode nublar esse debate, criando no mínimo prejuízos com uma tecnologia imatura (aconteceu em Londres) e na pior hipótese o que o El Pais chama de “pesadelo de George Orwell”.

Na semana passada, a Comissão de Ciência e Tecnologia da Câmara dos Deputados teve uma audiência sobre o uso de tecnologia de reconhecimento facial no Brasil (o vídeo segue abaixo do texto). O governo e a Abin já falam em apoio à regulamentação da tecnologia no país, e o Ministério da Justiça afirmou estar avaliando tecnologias concorrentes.

A empresa que mais tem feito lobby da tecnologia no país é a chinesa Huawei, a mesma que presenteou deputados iniciantes do PSL com uma viagem à China em janeiro — aquela mesma que redundou em polêmica. Eles voltaram querendo a tecnologia da anfitriã em lugares públicos no país.

Neste domingo, o New York Times publicou uma reportagem sobre como a China, sede da Huawei, transformou a cidade de Kashgar numa espécie de prisão, com câmeras para todo lado, intimidando especialmente a população pertencente à minoria uigur.

Essa empresa foi representada na audiência da Câmara por um gerente comercial, Ricardo Mansano. Usando uma retórica forte (“não podemos viver num país onde somos reféns de bandidos”), ele apresentou o que seria uma grande vitória de um teste que fizeram de sua tecnologiadurante o carnaval em Salvador: um foragido de 19 anos, vestido de mulher, supostamente identificado quando passou por uma fila de triagem.

Também houve testes no Rio, mas sem resultados. Não sabemos o índice de falsos positivos nem no Rio e nem em Salvador.

Para poderem reconhecer um rosto, algoritmos precisam ter uma boa quantidade de imagens dele. O Google Fotos faz um bom trabalho de reconhecer imagens que mostram a mesma pessoa em seu acervo lá arquivado. O Facebook também costuma ter uma boa assertividade devido à sua grande coleção de imagens (embora recentemente ele tenha confundido duas amigas que eu não fazia ideia de que eram tão parecidas).

Quando se trata de imagens menos voluntárias, como por exemplo o reconhecimento de rostos de criminosos e motoristas, vale dar um passo para trás e pensar:

  • De onde vêm as imagens que treinarão o algoritmo para ter essa assertividade?
  • Quantas são?
  • Ele vai fazer esse reconhecimento a partir de uma foto anexada ao banco de imagens oficiais (como uma 3x4 de documento ou uma foto de delegacia)?
  • Ou vai ter acesso a outras imagens, que permitam dar essa maior assertividade (acessando o banco do Facebook, por exemplo)?
  • Esse uso é consentido?

Testes já realizados fora do Brasil, avaliados por quem não é gerente comercial de empresas que querem vender tecnologia, não são animadores.

  • Nova York fez um teste de reconhecimento de rostos de motoristas que infringem limites de velocidade. A foto de cada barbeiro da ponte Robert Kennedy seria testada contra imagens dos bancos de dados públicos. “[O teste] foi completado e falhou com nenhum rosto (0%) sendo detectado dentro de parâmetros aceitáveis”, diz um memorando obtido pelo Wall Street Journal. Ainda assim, mais câmeras serão instaladas.
  • Em 2017, um teste de tecnologia de reconhecimento facial na final da Champions League no País de Gales apontou 2.470 pessoas no público como tendo antecedentes criminais. Só que 2.297 (92%) estavam errados.
  • A polícia de Londres gastou 200 mil libras num teste de tecnologia de reconhecimento facial. Não identificou nenhum criminoso.

Um estudo do MIT avaliou a assertividade das tecnologias de reconhecimento facial. Segundo eles, os algoritmos trazem mais falsos positivos entre mulheres e negros, especialmente porque são treinados com menos imagens de mulheres e negros.

Algumas das empresas interessadas em vender esse tipo de tecnologia estão, elas próprias, levantando senões.

Um estudo da IBM recomenda levar em conta a diversidade nos rostos, visto que eles podem diferir em muitos pontos e aumentar a chance de erro. Em dezembro, a Microsoft publicou um texto que reconhece as oportunidades do uso da tecnologia de reconhecimento facial mas alerta para todos os riscos envolvidos. Já uma auditoria do sistema da Amazon levou um grupo de acadêmicos a divulgar uma carta aberta exigindo que a empresa pare de vender a tecnologia Rekognition para fins policiais, devido ao alto risco de falsos positivos.

Vale a pena ler o artigo de Rafael Evangelista, membro do nosso grupo de estudos, resenhando o livro “The Age of Surveillance Capitalism”, de Shoshana Zuboff, para a revista “Surveillance & Society”.

Assista ao vídeo da audiência da comissão de Ciência e Tecnologia da Câmara:

--

--