Direcionamento de anúncios e discriminação de gênero

Bruna Thalenberg
Tecs USP
Published in
5 min readMay 15, 2018

A sabedoria popular já nos diz: não existe almoço grátis. Serviços gratuitos online, de buscadores a redes sociais, obtêm sua receita principal por meio da venda de anúncios direcionados: ao concordar com os termos de uso da plataforma, você aceita que seus dados e hábitos de navegação sejam coletados, permitindo que seus interesses e preferências sejam inferidos.

Para a indústria do marketing, esses dados são extremamente valiosos: ao invés de utilizar-se dos antiquados anúncios de massa, é possível localizar os usuários que são parte do seu público alvo e direcionar seus anúncios diretamente para a audiência mais receptiva a um certo produto.

No entanto, será que esse direcionamento pode ser considerado uma forma de discriminação? Há aí uma linha tênue: parece-nos perfeitamente aceitável anunciar produtos como cuecas apenas para a população masculina, mas, uma vaga de trabalho, não.

Em um estudo pioneiro, Datta et al. (2015) criaram uma ferramenta, chamada de AdFisher, para analisar como o comportamento de um usuário influencia os anúncios que ele vê. Além disso, os pesquisadores pretendiam verificar o quanto as configurações determinadas pelos usuários no Google Ad Settings interferiam nas propagandas mostradas. Os usuários eram todos fictícios e manipulados pelos pesquisadores, evitando, assim, eventuais ruídos que o uso caótico de um usuário comum traria.

Em seu trabalho, os autores investigaram o comportamento do algoritmo com respeito a quatro propriedades, consideradas como desiderata, pré-requisitos desejáveis. São eles: (a) a não discriminação, princípio pelo qual usuários que difeririam apenas por atributos protegidos seriam tratados igualmente; (b) a transparência, propriedade que garantiria que um usuário possa ver dados sobre si usados para a seleção dos anúncios; © as escolhas impactantes, que fariam que a mudança de uma configuração tivesse efeito sobre os anúncios mostrados; e (d) a escolha de anúncios, que asseguraria que a remoção de um interesse inferido diminuísse o número de anúncios relacionados a ele.

Parte do experimento consistia em simular usuários que diferiam apenas pelo gênero declarado nas suas configurações. Seu histórico de navegação era o mesmo, de forma que seria esperado que seus interesses inferidos também fossem. No entanto, os pesquisadores verificaram que, após visitar websites relacionados a empregos e vagas de trabalho, homens viam anúncios para cargos executivos e vagas com salários mais altos mais frequentemente do que mulheres.

Esse resultado evidenciou a violação do primeiro desideratum, de não discriminação: usuários com exatamente o mesmo perfil, exceto pelo gênero, receberam diferentes anúncios. Outros experimentos foram desenvolvidos no sentido de verificar as três propriedades restantes, resultando, respectivamente, em violação e dois cumprimentos.

Lambrecht e Tucker (2018), posteriormente, decidiram investigar por que isso acontecia, uma vez que os estudos até então detectavam a existência do problema, mas não procuravam detectar os mecanismos que causavam esse tipo de resultado.

Anúncio veiculado na pesquisa de Lambrecht e Tucker (2018).

Para isso, as pesquisadoras criaram o anúncio reproduzido acima. Antes de ser usado para os experimentos, ele foi testado na plataforma Amazon Mechanical Turks para verificar que não era particularmente atraente para um dos dois gêneros: homens e mulheres acusaram, em média, a mesma probabilidade de clicar no anúncio. Os testes foram realizados no Facebook, onde foi direcionado para usuários de ambos os gêneros, maiores de 18 anos, e em 191 países.

Embora tenha sido configurado de maneira a não ter viés de gênero, porém, as autoras verificaram empiricamente que a propaganda foi mostrada para 20% mais homens do que mulheres, com diferença ainda mais discrepante para os usuários na faixa de 25–54 anos.

Resultados dos testes realizados (Lambrecht e Tucker, 2018).

A primeira hipótese para explicar o ocorrido seria a de que o algoritmo apenas refletia o comportamento dos usuários — se menos mulheres clicassem no anúncio, o número de cliques seria maximizado ao mostrar o anúncio para mais homens. Ela mostrou-se incorreta, porém, após a análise dos dados de veiculação: na verdade, mulheres tinham maior probabilidade de clicar no anúncio quando ele aparecia. Seria possível, também, que mulheres passassem menos tempo na rede social, ou compusessem uma porcentagem menor do total de usuários. No entanto, essa hipótese também mostrou-se incorreta, uma vez que as mulheres, na verdade, são 54% da população do Facebook e passam mais tempo nele.

A hipótese seguinte seria a de que o algoritmo aprendeu certas características culturais do país onde o anúncio seria mostrado, de forma a refletir um padrão de discriminação contra mulheres a partir as diferenças de papéis de gênero, sabendo que é indesejável mostrar um tipo específico de anúncios, ou mesmo anúncios de emprego de maneira ampla, para mulheres. Isso poderia ter ocorrido tanto pelo treinamento prévio do algoritmo, quanto por meio do desempenho de campanhas anteriores. Para testar a hipótese, as pesquisadoras utilizaram indicadores do Banco Mundial como a participação feminina no mercado de trabalho, a escolaridade e um índice desenvolvido pelo Banco Mundial para medir a igualdade de gênero (CPIA), que reflete políticas públicas, acesso igualitário na educação, saúde e economia, entre outros. Melhores indicadores deveriam implicar em um maior número de impressões entre o público feminino em determinado país, mas isso não ocorreu.

Por fim, foi hipotetizado que a distribuição desigual do anúncio é um reflexo da maneira como funciona a indústria de anúncios — diversos anunciantes competem para mostrar anúncios para as mesmas pessoas, e é possível que decisões de outros anunciantes reflitam em anúncios alheios, ainda que se tratem de diferentes produtos. A hipótese foi confirmada. De fato, é mais caro mostrar anúncios para mulheres, especialmente na faixa etária em que mais houve diferença. A literatura de marketing sugere que mulheres controlem as compras da casa, tornando-as mais valiosas para os anunciantes. Como o preço por clique foi configurado para ser o mesmo para os dois gêneros, o algoritmo de otimização de custo fez com que os homens fossem priorizados.

Esse caso nos mostra que o buraco é muito mais embaixo: aqui, não bastaria saber como o algoritmo funciona, muito menos melhorar os dados de treinamento para evitar vieses. Há uma questão não apenas cultural, mas econômica, subjacente que não poderia ser prevenida pelo uso de algoritmos melhores.

A discussão sobre governança, regulamentação e boas práticas no uso de algoritmos de aprendizado de máquina ainda é extremamente recente, e desafios semelhantes devem surgir ao longo do caminho. Um relatório da Accenture lista como algumas das tendências tecnológicas para 2018 a reflexão sobre responsabilidade algorítmica e seus impactos sociais e o maior rigor no uso de dados. Embora o tema seja quente no momento, porém, ainda são poucas as pesquisas na linha. Continuaremos levantando essa bandeira e esperando por dias melhores.

--

--