Algoritmo versus contexto

Arilin Oliveira
TED/UNEB
Published in
4 min readMay 5, 2021

A pressão que plataformas como Facebook, Twitter, Instagram e Youtube sofrem para moderar e detectar conteúdo considerado discurso de ódio, fez com que o uso de algoritmos para fazer varreduras em publicações ofensivas, detectando seu nível de “toxicidade”.

Entretanto, em muitos casos, essa ferramentas são usadas diretamente para remover conteúdo e, pelo fato de os algoritmos não considerarem contexto, publicações que não contêm nenhum nível de toxicidade ou discurso de ódio acabam sendo removidas erroneamente.

Exemplo disso são as atrizes Letícia Tomazella e Gabriela Loran, que tiveram conteúdos removidos do Instagram, nos quais criticavam o machismo e a transfobia. Elas foram notificadas, respectivamente, por “nudez” e “símbolos ou discurso de ódio”, porém em nenhum momento houve violação das diretrizes do aplicativo.

Letícia Tomazella, atualmente no elenco da novela Gênesis (Record), criou uma websérie em que aparece nua, cobrindo os seios com uma tarja preta, para criticar a hipersexualização de seu corpo, em resposta às denúncias contra a foto de sua silhueta. Já Gabriela Loran, que interpretou a professora Priscila em Malhação: Vidas Brasileiras, teve dois vídeos excluídos, ambos criticando situações de transfobia.

Ao ser procurado, o Instagram admitiu ter errado ao remover as publicações e pediu desculpas às duas artistas. “Cometemos um erro e pedimos desculpas. Os conteúdos foram restaurados”, informou a plataforma por meio de sua assessoria de imprensa. Os vídeos retornaram aos perfis das atrizes.

Em 2020, o ator Mateus Scalabrini, teve vários posts e stories deletados pela plataforma, alegando o uso de “símbolos ou discurso de ódio” através da linguagem desbocada e irônica usada não só por ele como pela comunidade LGBTQ+, onde termos considerados pejorativos são ressignificados. Segundo ele, “todos os vídeos que tinham a palavra ‘viadinho’ foram removidos. Nunca tinha sido censurado, mas quando repercutiu, o Instagram começou a cortar”.

O Instagram não comentou o caso e emitiu apenas uma nota em que diz se esforçar para promover políticas que equilibrem liberdade de expressão e segurança. “Mais de um bilhão de pessoas no mundo inteiro usa o Instagram todos os meses e encontrar esse equilíbrio sempre será desafiador”, completou.

Thiago Dias Oliva, coordenador da área de pesquisas em liberdade de expressão do InternetLab, é um dos autores de uma pesquisa sobre o impacto da tecnologia no conteúdo produzido pela e para comunidade LGBTQ+, com intuito de mostrar e ver o contexto social, a função da linguagem para a comunidade a fim de repensar como essas ferramentas são construídas e aplicadas.

Com a ajuda da API Perspective, desenvolvida pela Jigsaw, foram coletados postagens no Twitter de drag queens conhecidas do popular reality show norte-americano “RuPaul’s Drag Race” e outros usuários famosos, como a ex-primeira dama dos Estados Unidos Michelle Obama e o atual presidente Donald Trump. O resultado, ainda que focado no conteúdo produzido em inglês, mostra lacunas e interpretações enviesadas no conteúdo feito pela comunidade LGBTQ+.

De acordo com a pesquisa, um número significativo de perfis de drag queens foi considerado mais tóxico que o de Donald Trump e supremacistas brancos, apenas ao hashtags e termos como “fag” (bicha), “sissy” (maricas) e “bitch” (puta) e outras bem mais comuns como “gay”, “lésbica”, “queer” e “travesti”. Mesmo sendo considerados ofensivos, estes termos desempenham papel relevante e positivo quando usados dentro da comunidade.

Um tuíte da drag Mayhem Miller — que dizia em caixa alta “Eu sou negro, sou gay, sou homem, sou uma drag queen. Se isso não é o suficiente para você… gentilmente, f*da-se” — chegou a atingir 95% de toxicidade. Já um post do youtuber de extrema-direta Stefan Molyneux, que sugere que algumas etnias tinham um cérebro menor, ficou na faixa dos 21%.

De acordo com Oliva, “essas tecnologias ainda estão em estágio de desenvolvimento e não conseguem compreender o contexto, podendo acontecer distorções”, o que tem bastante correlação com a base de dados que elas usam. Apesar de palavras como “gay” e “sapatão” forem neutras e positivas dentro da comunidade, fora dela acabam tendo uma conotação negativa. “É como se a base de dados usada a considerasse preponderantemente negativa”, completa o pesquisador.

É difícil fazer análise sobre a efetividade da tecnologia nessa varredura, principalmente no Brasil, onde ainda não há pesquisas relacionadas ao assunto. “O que a gente sabe é que ela comete erros, não muito raros. E esses erros têm consequências”, diz Oliva.

Fonte:

Instagram admite erro após apagar vídeos de atrizes por nudez e discurso de ódio (uol.com.br)

‘Bom dia, gay’: guerra ao discurso de ódio nas redes derruba posts LGBTQ+ — 06/03/2020 — UOL TAB

--

--