Jonas Batista
iNOVAMedialab
Published in
9 min readApr 8, 2022

--

Deplatforming o discurso de ódio?!

Adaptação da imagem de capa do relatório “Hate not found?! Deplatforming the far right and its consequences”, Institut für Demokratie und Zivilgesellschaft (IDZ), Alemanha

As plataformas de media sociais mainstream têm sido associadas à proliferação do discurso de ódio online. Mais recentemente, têm sido, também, relacionadas à sua remoção. O discurso de ódio é um fenómeno antigo. Deplatforming é um conceito recente. Ambos ganharam especial expressão e mediatismo depois de Donald Trump ser banido em janeiro de 2021. Assim, sugere-se uma reflexão sobre como deplatforming está a ser utilizado por Facebook, Instagram, Twitter e YouTube enquanto estratégia/intervenção de moderação do discurso de ódio, assim como se, e em que termos, poderá servir para o combater.

Discurso de ódio: complexidade, controvérsia e polissemia

O discurso de ódio é um fenómeno antigo, uma vez que as manifestações de intolerância e discriminação relativamente a grupos marginalizados não foram criadas na, nem pela, era digital. Mas foi precisamente com a internet, online e nas plataformas de media sociais mainstream — doravante, plataformas — que ganhou renovada prevalência e visibilidade, tal como, de alguma forma, se multiplicou, legitimou e/ou normalizou, tornando-se mais difícil de apreender e combater (SELMA, 2019). Por outras palavras, os novos espaços digitais de comunicação e interação, de partilha livre de pensamentos, opiniões e emoções — de forma anónima, mascarada ou, mesmo, identificada — são também terrenos férteis de produção e disseminação de discurso de ódio, promovendo a sua multiplicação e banalização no dia a dia.

Segundo o enquadramento legal europeu, o discurso de ódio consiste em «incitar o ódio ou perpetuar estereótipos sobre grupos específicos com base em características como raça, género ou orientação sexual» (ECRI, 2016). Os EUA, sede das plataformas aqui consideradas, pelo contrário, não consagram na sua lei qualquer definição de discurso de ódio.

Logo, a dificuldade em identificar e mitigar o discurso de ódio poderá ser engrandecida pela inexistência de uma definição consensual e universal. A sua definição é profundamente complexa e controversa, equacionada de formas muito distintas consoante as tradições jurídicas e os contextos nacionais, «permitindo flexibilidade para identificar ‘discurso de ódio’ nas suas várias manifestações, criando incerteza e desacordo sobre o que constitui ‘discurso de ódio’» (Article 19, 2015, p. 11).

O discurso de ódio e as plataformas de media sociais

A tendência de agravamento do discurso de ódio e a consciencialização dos danos que pode causar, tanto online quanto offline, transformaram-se numa preocupação crescente, pública e política, particularmente no último decénio. Autoridades públicas, entidades da sociedade civil e pessoas singulares mobilizaram-se e materializaram normativos legais, regulamentos e recomendações, assim como campanhas, projetos e recursos, entre outros, de ação contra o discurso de ódio. Estas iniciativas pressionaram Facebook, Instagram, Twitter e YouTube para se aliarem à causa.

Apesar de a lei norte-americana não consagrar o discurso de ódio, a Constituição dos Estados Unidos não proíbe as empresas privadas de limitarem o discurso. Portanto, as plataformas encetaram — ou foram levadas a fazê-lo — um processo, ainda inacabado ou em mutação constante, de estabelecimento, operacionalização e robustecimento das suas políticas, estratégias/intervenções, recursos e sistemas de moderação para procurarem curvar o discurso de ódio. Primeiro, de forma reativa e recorrendo a técnicas humanas (comercial content moderation). Depois, mais (pro)ativa e conjuntamente, com especialistas, outros públicos interessados e com os próprios utilizadores, disponibilizando-lhes ferramentas de denúncia, assim como com ferramentas mais sofisticadas não-humanas (algoritmos, interface/default design).

Facebook e Instagram (agora Meta), Twitter e YouTube avançaram com as suas próprias definições de discurso de ódio, criaram novas políticas dedicadas e integraram-nas nos seus Termos e Serviços ou Padrões da Comunidade. Com isto, determinaram, de forma mais ou menos clara, a proibição do discurso de ódio e as ações aplicáveis à sua utilização. Estas práticas de moderação — ou de sanção/penalização — passaram a incluir: advertências; supressão de algumas funcionalidades; eliminação de conteúdos; desativação de contas, temporária ou por períodos variáveis; e remoção definitiva de contas — isto é, deplatforming, em português desplataformizar.

No entanto, as plataformas não têm um entendimento comum ou padronizado sobre discurso de ódio — o grau de detalhe dos conceitos, termos e exemplos varia — e não expõem, em pormenor, os procedimentos aplicados, sugerindo uma transparência parcial, sempre controlada pelas próprias, e a ausência de um trabalho cooperativo neste combate.

Ilustração de Oivind Hovland/Getty Images

Desplataformizar vs. Desplataformização

De acordo com Richard Rogers (2020a, p. 214), desplataformizar é «a remoção de uma conta nos media sociais por violação das regras da plataforma». Ou, de forma mais elaborada, «negar o acesso a um local ou plataforma, tal como de media social e, assim, responsabilizar “indivíduos perigosos” e negar a capacidade de expressar opinião» (Rogers, 2020b).

Desplataformizar é diferente de desplataformização (“deplatformization”). Este aplica-se «aos esforços das empresas de tecnologia para reduzir o conteúdo tóxico, empurrando as plataformas controversas e as suas comunidades para os limites do ecossistema, negando-lhes o acesso aos serviços infraestruturais básicos necessários para funcionar online» (Van Dijck, de Winkel, & Schäfer, 2021, p. 4). Estas esforços são materializadas através de várias estratégicas, tais como: «(1) bloqueio do acesso à distribuição em rede, (2) desmonetização e (3) desativação de serviços infraestruturais» (Van Dijck et al., p. 7).

Desplataformizar é um conceito recente, mas não tanto quanto o poderá sugerir a projeção gerada pela sua aplicação, pelo Twitter, Facebook e YouTube, a Donald Trump, em janeiro de 2021, no seguimento do assalto ao Capitólio. Antes dele, muitos outros já tinham sido removidos. Refiram-se as várias comunidades do Reddit, em 2015 e em 2020, ou Alex Jones, Laura Loomer, Milo Yiannopoulos e Paul Joseph Watson, até 2019. Depois dele, muitos mais o foram, nomeadamente vários grupos apoiantes de ideologias da direita-alternativa (alt-right) e do movimento QAnon, na América, e da extrema-direita na Europa, incluindo em Portugal. E, entretanto, muitos outros o serão?!

Se até 2016, desplataformizar foi sobretudo uma estratégia para impedir a publicação de conteúdo ilegal (i.e., pornografia, ameaças terroristas, etc.), mais tarde foi também aplicada a reclamações e conteúdos que iam contra os Termos e Serviços (i.e., conteúdo pirateado, nudez, etc.). No seguimento dos processos eleitorais nos EUA e no Reino Unido, as plataformas começaram a remover também conteúdos tóxicos, incluindo mensagens de ódio (Van Dijck et al., 2021, p. 3).

Fotografia de Getty Images/WIRED

Desplataformizar? Talvez, ma non troppo

O recurso crescente a desplataformizar tem motivado debates e estudos sobre a sua eficácia, que se dividem entre os que dizem que funciona e os que argumentam o contrário. Como benefícios são apontados: a desintoxicação das plataformas, de onde foram removidos, e de subespaços; a condução de vozes extremas para espaços menos oxigenados e com audiências menores; e a contenção do impacto do discurso. Já como desvantagens destacam-se: a reafirmação da convicção dos seguidores; a concentração da atenção nos conteúdos e nas pessoas suprimidas (efeito Streisand); e a elevação das plataformas a juízes do discurso (Rogers, 2020a, p. 215).

Todavia, desplataformizar parece funcionar para o Facebook e Instagram, quebrando a sua atratividade para as celebridades extremas, mas não para o YouTube e o Twitter, que permanecem relevantes como destino de conteúdo e audiências extremistas (Rogers, 2020a, p. 218).

No mesmo sentido, pesquisas mais recentes demonstraram que «banir uma comunidade de uma plataforma mainstream pode vir à custa de uma comunidade mais pequena, mas mais extrema noutro lugar» (Ribeiro et al., 2021, p. 21). Isto porque, os indivíduos/comunidades desplataformizados e, em alguns casos, os seus seguidores podem migrar tanto entre plataformas mainstream quanto para plataformas alternativas/limítrofes do ecossistema, com políticas mais flexíveis ou permissivas, refiram-se Telegram, GAB, BitChute e Minds. Do mesmo modo, podem deslocar-se para serviços de subscrição, como o freespeech.tv, ou criar websites ou plataformas próprias — veja-se a Truth Social de Donald Trump –, em certo sentido revivendo a web, na aceção de Rogers (2020a, 2020b).

Além disso, mostraram que enquanto perfis e conteúdos com discurso de ódio são apagados, outros continuam a emergir, sugerindo que (des)plataformizar o discurso de ódio será «um jogo interminável de “whack-a-mole” [ou de sempre-em-pé, numa analogia idiomática mais próxima]» (Mirrlees, 2021, p. 93).

Ao desplataformizar, as plataformas poderão, de algum modo, estar a mudar o que é considerado aceitável (social) e inaceitável (antissocial) e, assim, a consolidar o seu poder enquanto designers, operadores e governantes do ecossistema digital (Van Dijck et al., 2021, p. 1) e, talvez, das próprias sociedades.

Ilustração de Micha Huigen/The Verge

Que moderação?!

As duas formas dominantes de moderação de conteúdos nas plataformas — (1) automatizada e (2) humana — têm suscitado similarmente várias dúvidas e críticas.

A moderação humana acontece, normalmente, depois de um conteúdo (imagem, vídeo, comentário, etc.) ter sido carregado para a plataforma e de um utilizador o denunciar, porque acredita que viola as regras. A decisão entre o que fica e o que deve ser banido tem de ser tomada em segundos. A moderação humana tem sido associada a precariedade, a exploração laboral e a problemas de saúde mental, tais como transtorno de stress pós-traumático.

Através de processos automatizados, a moderação é delegada em algoritmos opacos, não responsabilizáveis e detidos por empresas privadas, podendo: aumentar o número de falsos positivos e negativos; corresponder virtualmente à delegação de todas as funções legislativas, judiciais e executivas numa única empresa, abrindo espaço para a autocracia, corporatocracia e monocultura (Gillespie et al., 2020, pp. 12–14).

Por fim, os dois tipos de moderação poderão ter efeitos também no tecido social das sociedades, influenciando o acesso a plataformas que são cada vez mais centrais para trabalhar, viver e prosperar em conjunto (Gillespie et al., 2020, p. 16).

Mais do que desplataformizar…

Face ao exposto, desplataformizar poderá servir como medida a curto prazo, ou paliativa, mas não como um antídoto definitivo contra o discurso de ódio. Ou seja, desplataformizar deverá ser encarada como uma das ferramentas do arsenal de estratégias/intervenções de moderação à disposição das plataformas — senão mesmo como um último recurso –, ao qual deverão antepor-se e adicionar-se outras, mais transversais e globais. Por exemplo, uma abordagem que promova maior colaboração entre as plataformas, os governos e as sociedades, mais autorregulação e maior transparência, assim como mais literacia para os media e para a igualdade. De forma mais prática, talvez valha a pena encorajar ou automatizar campanhas de contranarrativa online, como o movimento #jagärhär (euestouaqui), criado na Suécia e reproduzido em vários países, e corrigir os algoritmos de referenciação para deixarem de fomentar, ainda que inadvertidamente, conteúdos com discurso de ódio e passarem a promover, propositadamente, os Direitos Humanos.

Referências

Article 19 (2015). ‘Hate speech’ explained. A toolkit. Londres: Article 2019.

ECRI (2016). ECRI General Policy Recommendation n.15 on combating hate speech. Estrasburgo: Conselho da Europa.

Gillespie, T. & Aufderheide, P. & Carmi, E. & Gerrard, Y. & Gorwa, R. & Matamoros-Fernández, A. & Roberts, S. T. & Sinnreich, A. & Myers West, S. (2020). Expanding the debate about content moderation: scholarly research agendas for the coming policy debates. Internet Policy Review, 9(4). https://doi.org/10.14763/2020.4.1512

Mirrlees, T. (2021), “GAFAM and Hate Content Moderation: Deplatforming and Deleting the Alt-right”, Deflem, M. and Silva, D.M.D. (Ed.) Media and Law: Between Free Speech and Censorship (Sociology of Crime, Law and Deviance, Vol. 26), Emerald Publishing Limited, Bingley, pp. 81–97. https://doi.org/10.1108/S1521-613620210000026006

Ribeiro, M. H., Jhaver, S., Zannettou, S., Blackburn, J., De Cristofaro, E., Stringhini, G., & West, R. (2021). Do Platform Migrations Compromise Content Moderation? Evidence from r/The_Donald and r/Incels. Proceedings of the ACM on Human-Computer Interaction, 5, 1–24. https://doi.org/10.1145/3476057

Rogers, R. (2020a). Deplatforming: Following extreme Internet celebrities to Telegram and alternative social media. European Journal of Communication, 35(3), 213–229. https://doi.org/10.1177/0267323120922066

Rogers, R. (2020b). Platforming, Deplatforming & Replatforming: Following extremists around the Internet. Digital Methods Initiative, Winter School 2020, 01/13/2020.

SELMA (2019). Hacking Online Hate: Building an Evidence Base for Educators.

Van Dijck, J., de Winkel, T., & Schäfer, M. T. (2021). Deplatformization and the governance of the platform ecosystem. New Media & Society. https://doi.org/10.1177/14614448211045662

Série de ensaios produzidos por alunos do curso Novos Media e Práticas Web da Universidade NOVA de Lisboa. Mestrados NOVA FCSH | Unidade Curricular: Estudos de Plataforma e Social Media.

--

--

Jonas Batista
iNOVAMedialab

Communications Officer and Master’s student in New Media and Web Practices