Algoritmos que perpetuam estereótipos sexistas em bancos de imagem digitais

Arilin Oliveira
TED/UNEB
Published in
3 min readMay 5, 2021

No dia 8 de março de 2021, Dia Internacional da Mulher, foi divulgado um levantamento realizado pela Deutsche Welle (DW), organização de mídia imparcial alemã, que revelou como os algoritmos do Google Images reproduzem clichês sexistas sobre mulheres de determinadas nacionalidades.

De acordo com a análise apresentada, buscas com os termos em inglês “mulheres brasileiras”, “mulheres tailandesas” ou “mulheres ucranianas”, por exemplo, tendem a mostrar como resultados mais imagens de mulheres jovens em poses provocantes e com pouca roupa do que buscas com o termo “mulheres americanas”.

Segundo Dandara Sousa, mestranda e graduada em Ciência da Computação pela Universidade Federal de Campina Grande, quando a busca é pela tag boss (chefe), os resultados relevantes mostram um padrão masculino e branco, enquanto a busca por secretary (secretária) mostram como resultados relevantes mulheres. Ademais, uma relação sexista também é vista na busca por wealth (riqueza): as mulheres até estão presentes, desde que no papel de companheiras de homens brancos de sucesso, ou seja, para o algoritmo, mulheres são raridades enquanto chefes e não podem, por si só, ter riqueza.

A ferramenta utilizada na classificação dos resultados do estudo realizado pela DW foi o próprio Cloud Vision SafeSearch da Google, programa de visão computadorizada treinado para detectar imagens contendo elementos sexuais ou potencialmente ofensivos. Neste caso, seu objetivo era marcar imagens potencialmente sexistas. Segundo os resultados, em países como a República Dominicana ou o Brasil, mais de 40% das fotos encontradas têm probabilidade de ser sexualizadas, enquanto para mulheres americanas ou alemãs a percentagem é de 4% ou 5%, respectivamente.

Além disso, parte significativa dos resultados levou a sites com endereços contendo “brides” (noivas), como toprussianbrides.com, hotlatinbrides.org e topasiabrides.net, que têm como público-alvo homens ocidentais à procura de uma esposa ou parceira sexual estrangeira e submissa. “Se você lidou mais com mulheres ocidentais, conhecidas por perseguir suas carreiras, então vai sentir bem diferente um relacionamento com uma noiva ucraniana”, promete um site destacado entre os primeiros resultados do Google.

O problema tem ainda uma dimensão essencialmente linguística: comparando os resultados das buscas em inglês e português, há uma diferente gritante na quantidade de conteúdo sexualizado. Na busca por “Brazilian women”, 41 das primeiras 100 imagens foram classificadas pelo Google como “acy” (sexuais), contra apenas nove para “mulheres brasileiras”.

Ao ser confrontada pela DW, a Google emitiu apenas uma declaração, na qual reconheceu que as buscas realmente mostram “conteúdo explícito ou perturbador […] incluindo resultados que refletem estereótipos negativos ou preconceitos existentes na rede”, um problema que “impacta desproporcionalmente mulheres, também de cor”. Também afirmou que a presença desse tipo de conteúdo nas buscas é afetado pela forma como a informação é organizada e rotulada na internet, prossegue a Google, dizendo que está trabalhando para encontrar “soluções em escalas diversas” para tais questões, sem expô-las em detalhe.

Dandara também afirma que “a falta de esforço das empresas para mudar essa situação é tão impressionante que qualquer campanha feita parece piada”, referindo-se às campanhas criadas pela empresa, que consistem na criação de hastags para para mostrar trabalhos feitos por mulheres ou a separação de um espaço só para mostrar a minoria. Para ela “isso é muito parecido com o termo de segregação”, pois os resultados relevantes continuam sendo brancos e masculinos, com teor sexista, exceto pela “sessão especial”, onde mulheres ganham visibilidade positiva.

Fonte:

Como o Google contribui para perpetuar estereótipos sexistas | Notícias internacionais e análises | DW | 08.03.2021

Racismo e Sexismo em Bancos de Imagens Digitais — Dandara Sousa (dandaramcsousa.github.io)

--

--