Rodrigo Constantino não sabe usar o Google

Constantino disse que o Google manipula resultados para privilegiar a esquerda e os negros. Os dados provam o contrário

Eduardo Pacheco
revista Maquiavel
6 min readAug 22, 2017

--

Se procurar por racismo reverso no Google dá bilhão?

Quando um autor comete erros crassos em um posicionamento isso faz com que um sinal amarelo apareça sempre que o mesmo vem com uma notícia bombástica. Rodrigo Constantino já revelou alguma paranoia no passado vendo conspiração petista no logo da Copa e com a reeleição de Lula. Quando opinou sobre veganismo falou besteira como de costume e escrevi uma resposta rebatendo ponto a ponto.

O alvo das teorias da conspiração de Constantino da vez é o motor de busca da Google. Em artigo para a Gazeta do Povo Constantino apresenta o que para ele são provas de que Google está manipulando os resultados para privilegiar a esquerda e os negros. As provas que apresenta, porém, só atestam mesmo que ele é bastante enviesado e não sabe usar o Google tão bem assim.

Peço ao leitor que leia o artigo na íntegra antes de prosseguir. É curto e não é de bom tom apresentar apenas a parcela conveniente da realidade para induzir o leitor. Vamos dar a oportunidade para Constantino aprender pelo exemplo.

Em resumo, Constantino faz algumas buscas no Google, mostra os screenshots dos resultados e infere daí que há um privilégio para os negros. Reproduzo aqui as buscas e comento em cada uma delas.

American inventors

Na busca por inventores americanos (original aqui) Rodrigo mostra o seguinte resultado:

“Apenas Thomas Edson resiste ao politicamente correto”, diria.

A maioria(8 em 9 dos primeiros resultados) negros. O que acontece porém se trocarmos “American” por “USA”?

A resistência branca vira o jogo!

O resultado se inverte. Quando não há a palavra american 7 dos 9 inventores da primeira página são brancos. Guarde essa informação que ela será usada lá na frente.

European people Art

Rodrigo busca por “European people art”. O que ele queria aqui é arte de pessoas europeias. Vejam aqui a busca no original: mesmo retirando as referências cruzadas tem muitos negros aí. Como explicar isso?

Sugiro uma busca alternativa para fins didáticos. “European art”. Vejam direto no original e notarão que o resultado muda completamente.

Por que a omissão de uma palavra leva a resultados tão diferentes? Chegaremos lá.

A palavra que fez diferença aqui foi people. Ao omitir people a busca que mostrava muitos negros passa a mostrar muitos brancos. Como a supressão de uma palavra pode mudar o viés de etnia do resultado? Por que quando não falamos “people” o resultado mostra a maioria brancos? Se existisse um viés privilegiando negros isso se valeria tanto para European people Art quanto para European Art, certo? Até agora no nosso grupo de “privilegiadores de negros” temos “american” e “people”.

White couple

Vamos seguir com a metodologia de contraste. Em White couple Constantino demonstra o seguinte resultado:

“60% de negros. Muitos diriam que é teoria conspiratória” diria Cosntantino

Mas e se procurarmos só por Couple?

Onde foram parar os negros?

Suprimir a palavra white deu um raio enbranquecedor nos resultados. As palavras até aqui que privilegiam negros são {white, american, people}. Sem incluir essas palavras os brancos aparecem na frente em disparada.

Happy american couple

Nesse ponto o leitor já deve ter ao menos começado a entender o que se passa. Qual palavra enegrece os resultados?

Muitos negros, oh não!

E se retirarmos american (ver original)?

Mas que virada sensacional para o time dos brancos.

White men and white woman

Aqui Constantino tenta mostrar que mesmo um resultado explícito de um mecanismo de busca famoso pela sua precisão ( e que lucra muito com isso) cedeu ao politicamente correto e mostra negros quando procuramos por brancos. Comunistas! Nos tornamos 1984!

“Contra fotos não há argumentos”

Mas o que acontece se suprimirmos a palavra “white”? Nas 10 primeiras fotos de pessoas temos 9 casais brancos.

Happy white american woman

Aqui temos dois conhecidos nossos. White e american como adjetivos para woman. Mas e se deixarmos só Happy woman?

temos duas das nossas palavras especiais aqui. O resultado: negras.

Novamente. Sem menção de etnia quem aparece são os brancos:

Por que happy woman mostra mais brancas americanas que happy white american woman?

Happy white american child

Mais um caso com duas das nossas palavras especiais. O resultado?

Esse resultado mostra que quando colocamos white e american temos algumas imagens que contém negros.

Essa resposta é elucidativa. Não só brancos e negros mas você vê uns índios jogados aí no meio também. E o que acontece se tirarmos referências a etnia?

A proporção de imagens exclusivamente com brancos saiu de 20% para 60% com a ausência de referencia a etnia.

E se olharmos mais de perto vamos notar que a proporção de brancos é ainda maior.

Explicando os resultados

Os contextos em que as palavras aparecem e a forma de funcionar do algoritmo geram os resultados.

As palavras do nosso grupo especial {white, people, american} revelam alguns vieses linguísticos que temos que servem como evidência de racismo. Quando não há referência a tais palavras os brancos predominam.

Como assim?

Não se trata de uma “mulher branca”. A mulher branca é referenciada nos textos apenas como mulher. Nem de criança branca. Ou casal branco. É só casal. Os negros, porém, possuem a referência da etnia os acompanhando para onde quer que vão. E as pessoas até ficam incomodadas em usar essa referência: Aí o Joaquim do trabalho fez isso. Que Joaquim? Ah, aquele cara moreno, negro. Aaah, o Joaquim!

Quando explicitamos o branco é porque há contraste com outra etnia. Usualmente o negro. Mas também pode ser o índio como mostrou a última busca analisada. O branco faz parte da ideologia dominante e por isso sua referência é invisível: falar de alguém é falar de alguém branco a menos que haja referência explícita em contrário. É por isso que happy woman retorna mulheres brancas, happy child crianças brancas e por aí vai.

Quando procuramos por “white couple”, então, o Google procura por resultados que contenham as palavras white e couple. White, porém, é mais comumente escrito em um contexto em que também há negros. O resultado é que White dá match com textos que tenham [and Black] e daí os resultados.

O mesmo acontece para "american". Normalmente um ator é um ator [branco], um ator negro é um “ator negro”. Então o American deixa implícito [African] American, que é o contexto em que essa palavra é muito usada.

People segue o exato mesmo raciocínio. People como adjetivo se relaciona com [black people] {arte(substantivo) de [Black people](adjetivo)} . Se você buscar só por people ( portanto substantivo) notará que a maioria dos resultados é de brancos.

A culpa portanto não é do Google

Tecnologias baseadas em dados aprendem com os dados que têm. Se as pessoas escrevem textos com vieses discriminatórios o algoritmo se atentará as relações que as palavras carregam. Ele apenas reproduzirá o que aprendeu: o Google não faz distinção via código para brancos e negros. E a distinção entre brancos e negros existente nos dados é resultado de discriminação contra negros, não contra brancos. É o contrário do que Constantino alega.

Se não fez os contrastes adequados antes de traçar uma hipótese Constantino incorre no viés de seleção. Especificamente em cherry picking: escolhe casos convenientes para traçar sua explicação sobre o mundo mas exclui aqueles que provariam o contrário caso todos fossem vistos em conjunto. Tendo em vista seu histórico o caso presente se enquadra também em confirmation bias que é ficar procurando por exemplos que confirmem o que você já acredita em vez de tentar analisar as questões de uma forma um pouco mais isenta.

Eduardo Pacheco é cientista de dados, estudante de direito e ativista pelos direitos humanos e dos animais.

--

--

Eduardo Pacheco
revista Maquiavel

chief technology officer da atlas.ia e cientista de dados