Uma taxonomia da moderação de acordo com James Grimmelmann

James Grimmelmann, professor da Cornell Law School, no artigo "The virtues of moderation" propõe a formação de um guia sobre a moderação, tendo como público alvo acadêmicos do direito. Nele, o autor sintetiza insights de grupos de moderadores, designers de softwares e de interfaces digitais, bem como outros especialistas de áreas diversas (psicologia, comunicação, etc.), que se debruçam sobre as comunidades digitais, Grimmelmann tece este artigo com a intenção de propor uma nova taxonomia para a moderação. Esta, por sua vez, se perfaz a partir de um vasto conjunto de técnicas de moderação em uso na internet. Nesta peça, apresento algumas de suas principais formulações.

O insight de Grimmelmann parte de uma reflexão sobre o caso da tentativa de construção de um wikitorial pelo Los Angeles Times, em 2005, o qual funcionaria com caráter colaborativo, tal como o Wikipedia. Para ele, o experimento havia fracassado por ter negligenciado, em sua origem, um instrumento fundamental para a prevenção de casos de abuso: a moderação. Em um primeiro momento a página ficou repleta de comentários de pessoas decidindo se o editorial seria pró ou contra a guerra no Iraque. Em um segundo momento (em menos de 48h) — a página foi invadida por comentários preconceituosos, misóginos e radicalizados, fazendo com que o Times a tirasse do ar.

Nas comunidades online em que interações sociais ocorrem de forma publicizada, assim como em debates e em outras formas de assembleias e reuniões, o papel de moderadores na manutenção da civilidade de discussões coletivas é imprescindível. Estes atores têm agencia para controlar o fluxo de circulação de conteúdos: podem promover posts ou retirá-los do ar, valorizá-los ou desvalorizá-los, estimular a participação de usuários ou bani-los — todas suas decisões são capazes de influenciar o que é visto, como é valorizado e o que será dito sobre determinado assunto.

A crítica principal do trabalho de Grimmelmann é a uma compreensão equivocada que subsiste, sobretudo, na mentalidade de operadores do direito: a de que a regulação de conteúdos se dá em um cenário de “tudo ou nada”. Nesse sentido, diversas legislações existentes, que regulam as atividades de comunidades online ou as exime de regulação, carecem de uma compreensão material sobre o que pode ser feito, de fato, na moderação de conteúdo.

As técnicas mencionadas por Grimmelmann podem ser organizadas de acordo com os termos jurídicos de “ex ante” versus “ex post” — no sentido de serem formuladas e implementadas antes ou depois do ingresso dos atores nas plataformas — e “normas” versus “arquitetura” — no sentido de visarem à punição de comportamentos inadequados ou de influenciarem a forma como os atores se comportarão na rede.

Grimmelmann estabelece a definição de moderação como sendo os diversos mecanismos de governança que estruturam a participação em comunidades virtuais para facilitar a cooperação e previnir abusos.

Estudar as comunidades online pode prover insights sobre a administração de acordos coletivos e a criação de bens informacionais — duas questões que a moderação deve resolver simultaneamente. Dessa forma, estudar a moderação é uma forma de estudar a sociedade — já que o fato de atores ocuparem papeis distintos pode incentivar ou desincentivar determinados comportamentos na rede.

A primeira parte do artigo provê definições e descreve problemas comuns que as comunidades enfrentam. A segunda parte, uma gramática detalhada sobre moderação. A terceira parte apresenta quatro estudos de caso sobre a moderação em ação: o caso de sucesso da Wikipedia, o caso fracassado de Los Angeles Times Wikitorial, e os casos mais complexificados do MediaFilter e do Reddit. Em suas conclusões, oferece algumas lições para reguladores examinando os dois principais estatutos da moderação nos Estados Unidos: a seção §230 da Community Dececny Act (que retira a responsabilidade de intermediários) e o parágrafo §512 do Copyrights Act (que exime a responsabilidade de plataformas pela violação de direitos autorais feita por usuários, mas com diversas exceções — como, por exemplo, a obrigatoriedade do administrador responder à solicitação de remoção de conteúdo, ou a exclusão de membros que repetidamente infringem as regras de copyright).

Definições e Motivações

Por online communities, Grimmelmann compreende comunidades digitais como sendo grupos formados por poucas ou muitas pessoas que compartilham mensagens privadamente entre si ou publicamente na web. Estas tem três elementos substanciais: (1) membros; (2) conteúdo compartilhado entre eles, ou de forma pública, e (2) uma infraestrutura que é "host" da comunidade – e pode pertencer a outra empresa.

Os membros podem ser caracterizados como proprietários da infraestrutura; moderadores da comunidade; e receptores/autores de conteúdo.

Por exemplo, no caso do Youtube, o Google é o dono da infraestrutura; os youtubers são autores; os usuários são os leitores. Moderadores podem ser os usuários (que atuam como tais com o uso de notice and takedown, i.e., marcando conteúdos que acreditam que devem ser retirados); os algoritmos que coletam os dados de denúncias e tiram conteúdos do ar, ou organizam os feeds de uma determinada forma; ou os próprios empregados do Youtube que manualmente revisam os vídeos denunciados.

Os proprietários (donos da infraestrutura) possuem uma posição privilegiada porque podem decidir quem pode moderar e como o fazer. Moderadores por sua vez podem formatar o fluxo dos comentários de autores para receptores.

Cada um desses papeis evoca motivações diversas para o controle dos fluxos comunicacionais, que podem, inclusive, se sobrepor: os autores querem que o conteúdo compartilhado seja visto; receptores querem ter acesso ao conteúdo que lhes interessa; moderadores, como autores, querem promover a disseminação do que se importam com. Por um lado, a participação nestas atividades giram em torno da realização pessoal e do senso de pertencimento destes usuários. Por outro lado, demandam tempo e esforço.

A partir das motivações individuais, é possível compreender que existem diversos objetivos da moderação — o que, mais uma vez, reforça o argumento de Grimmelmann de que a moderação possui um caráter polissêmico.

Objetivos da moderação

O autor estabelece três tipos ideais de objetivos da moderação:

  1. Aumentar a produtividade da rede: moderar serve para distribuir adequadamente os bens informacionais aos usuários;
  2. Garantir mais acessos: moderar serve para assegurar a participação de mais pessoas — quanto mais gente, mais conteúdo produzido, mais rentabilidade. Uma parte importante é a participação equitativa; quanto mais gente participando da moderação de conteúdo, mais ela pode se tornar efetiva;
  3. Diminuição de custos para as plataformas: moderar serve para administração alternativa de conflitos que poderiam ser adjudicados e gerar prejuízos.

Problemas comuns a serem enfrentados

As comunidades online têm se tornado cada vez mais o principal espaço para o debate público e, também, a principal fonte de acesso à informação. Nesse sentido, a moderação é importante para manter a infraestrutura como sendo um bem de uso comum, sem discriminação na produção de conteúdo e no acesso a este.

Para manter o acesso equitativo às plataformas, é importante previnir excessos —o que deve ser feito em parâmetros aceitáveis, sem aumentar os custos da moderação em níveis inaceitáveis. Estes excessos podem ser:

  1. Congestionamento: pelo sobreuso;
  2. Cacofonia: pela repetição de conteúdos para os participantes que torna difícil achar conteúdo relevante;
  3. Abuso: por problemas de trocas informacionais, como condutas violentas, como o trolling, que afeta grupos de pessoas em geral, ou assédio/ofensas, que afetam pessoas particulares;
  4. Manipulação: participantes ideologicamente motivados podem manipular a informação disponível ao público;

Tanto o abuso como a manipulação podem ser simplesmente deletados quando direcionados a particulares. O problema é quando o conteúdo é direcionado para o público em geral. Nesse sentido, há uma questão premente que é a possibilidade de se afetar a liberdade de expressão: pessoas que não se sentem confortáveis em expor suas opiniões podem se silenciar.

Soluções possíveis

Após discutir os problemas que a moderação encara, Grimmelmann observa como ela pode enfrentá-los. Para ele, os membros têm papeis bastante importantes na moderação, seja como proprietários da infraestrutura, como autores e leitores de conteúdos e como moderadores propriamente.

Os quatro verbos da moderação seriam:

1. Excluir membros

Bastante simples e pode ser usada sobretudo quando é identificado um comportamento estratégico (por ex.: spam), recorrente e abusivo.

Problema é: como e por quem deve ser feita? Só por humanos? Quando pode ser feita automaticamente? Deve haver revisão humana nestes últimos casos?

2. Precificar

Inibe o acesso público — o que pode ser bom ou ruim, a depender do caso. Em tese, inibe o comportamento em desacordo com a comunidade .

3. Organizar

  • Sistematização do fluxo de conteúdo
  • Simplesmente remover conteúdo
  • Editar ou alterar conteúdo (from correcting typos to changing the very essence of a post).
  • Anotar: adicionar informação sobre conteúdo.
  • Sintetizar: combinar conteúdos em peças.
  • Filtrar: “deletar” sem destruir.
  • Formatar: apresentar de uma determinada forma.

4. Estabelecer regras

  • Termos de uso para as plataformas
  • Termos de uso dentro das próprias plataformas. Por exemplo: comunidades dentro de comunidades que criam regras próprias — dentro dos parâmetros dos termos de uso da plataforma; ex.: grupos de membros do Facebook.
Taxomania da moderação por James Grimmelmann

Estes tipos de moderações podem ser feitas por humanos manualmente, ou automaticamente; de forma transparente, com revisão pública, ou de forma opaca. Há também uma distinção entre moderação ex ante e moderação ex post, que perpassa o desencorajamento versus punição, a proteção versus reparo. Pode ser também centralizada e realizada por um único tomador de decisões globais, ou de forma descentralizada, por diversos atores dispersos, que tomam decisões em nível local.

Existem, assim, dezesseis possibilidades de moderação, dentro das técnicas apresentadas por Grimmelmann.

Conclusão: lições aos operadores e mudanças na legislação

Existe um problema premente tanto na legislação norte-americana, como na legislação brasileira: o problema do cheque em branco. O §230 da Community Decency Act, que retira a responsabilidade das plataformas por conteúdos postados por terceiros, assim como descreve o Marco Civil brasileiro, teve intenção também de encorajar a moderação ao tirar o risco de responsabilidade por erro na moderação. Entretanto, modificações poderiam ser feitas, compreendendo que a moderação não possui um sentido único nem uma única forma de aplicação, de forma semelhante ao sistema do Copyrights Act, cujo parágrafo §512 determina diversas exceções possíveis à imunidade das plataformas — como, por exemplo, a obrigação de, pelo menos, responder quando acionada, por denúncias de conteúdos abusivos, sob o risco de responsabilização pela negligência.

A taxonomia desenvolvida por Grimmelmann possibilita o enquadramento conceitual de instrumentos que já existem nas plataformas — há esforços nelas e papel dos usuários que têm sido subestimados nas apostas efusivas para que o Judiciário e o Legislativo estabeleçam regulações mais eficientes.

Referências

GRIMMELMANN, James. The virtues of moderation. Yale JL & Tech., v. 17, p. 42, 2015.

--

--