Fake News: A culpa é dos algoritmos?

Harumi Miasato
Harumi Miasato
Published in
4 min readSep 17, 2020

Para você se ambientar:

Na minha última publicação falei sobre a retroalimentação de conteúdos associados ao nosso interesse nas redes sociais (você pode ler o texto aqui).

Dessa forma, aconselho que leia o texto anterior antes de prosseguir a leitura deste, para uma leitura mais fluída.

Um dos assuntos que encabeçam as manchetes dos jornais é a tal crise da democracia como efeito decorrente da polarização percebida em larga escala nas mídias sociais, apresentando as redes sociais como causa da polarização e a crise democrática como efeito.

Outra causa apontada é a disseminação de conteúdos desinformativos, que por vezes apresentam fatos mas fora de contexto, levando o leitor a absorver a informação de forma equivocada.

O volume de informações duvidosas em circulação no mundo online e off-line gera insegurança e nos faz questionar todo tipo de conteúdo, inclusive os advindos dos meios de imprensa tradicional.

Desinformação

É importante ter em mente que a desinformação é um termo mais abrangente do que “fake news”. Um conteúdo desinformativo pode conter pedaços de informações mescladas com factoides, ser apresentada fora de contexto ou até ocultar alguns fatos para induzir o leitor a determinada conclusão.

Em inglês há o termo “misleading information”, que aglutina as palavras “miss” e “lead”. Em uma tradução literal seria algo como “guiar errado”, e o sentido é realmente esse: uma informação que te conduz a uma conclusão equivocada, e, geralmente, a conclusão só é válida se construída a partir de determinada premissa.

A relação dos algoritmos das redes sociais e a desinformação

Como escrevi no último texto, a arquitetura das redes sociais foi desenvolvida e aprimorada com o intuito de fazer com que o usuário permaneça ativo nas redes o maior tempo possível. Quanto mais você navega, mais dados sobre você são gerados — o que permite que as plataformas tenham mais informações sobre você e possam realizar uma análise de perfil ou a grosso modo: categorizar você tal como organizamos nossos pertences — e dados nos tempos atuais representam um grande ativo econômico das empresas (em geral).

É aí que entram os algoritmos — isso mesmo, aquela sopa de letrinhas que aparece nos filmes e séries sobre tecnologia, I.A., hackers. O algoritmo é o ingrediente responsável pela arquitetura da plataforma, é ele que determina o que cada botão faz, o que deve ser exibido na tela se o usuário clicar aqui ou ali, se informar o login errado, como devem ser feitas as sugestões de conteúdo e perfis para adicionar a sua rede.

São desenvolvidos para se moldar ao comportamento online de cada usuário, reforçando os assuntos de interesse e afins. A ideia é entregar ao usuário uma experiência personalizada na plataforma, com conteúdos que tenham mais relação com os seus interesses.

Ao mesmo tempo, os algoritmos também interpretam a relevância de determinado conteúdo na rede. Lembra das bolhas nas redes sociais? Quando um conteúdo consegue “furar” as bolhas, o algoritmo entende que esse conteúdo pode ser relevante para diferentes públicos e então passa a entregá-lo para bolhas diversas e boom! Temos um viral!

Um detalhe importante: o algoritmo não avalia o teor do conteúdo, mas apenas o nível de engajamento na rede (curtidas, corações, compartilhamentos, comentários) para determinar a relevância, em outras palavras, o algoritmo não faz análise da veracidade do conteúdo/checagem de informação. Via de regra, esses algoritmos não são desenvolvidos com essa finalidade.

Como combater a desinformação?

Não há um fórmula mágica.

Temos tramitando na Câmara dos Deputados o PL 2630/2020 (divulgado como PL das Fake News) que pretende regular a transmissão de conteúdo nas mídias sociais e serviços de mensageria instantânea.

A atual redação do Projeto de Lei foi aprovada no Senado Federal, e vem recebendo críticas dos institutos dedicados a promover educação e direitos digitais como o Data Privacy Brasil, ITS Rio, Coalizão Direitos na Rede, Internet Lab, Eletronic Frontier Foundation — EFF, apenas para citar alguns.

(Também publiquei um texto sobre a redação do PL, caso queira saber mais sobre o assunto, você pode conferir aqui e aqui)

Uma das críticas ao PL gira em torno da entrega de (excessivo) poder de polícia nas mãos das plataformas, as incumbindo de rastrear os conteúdos, excluir/bloquear contas de usuários, verificar ocorrência de crimes entre outras atribuições de responsabilidades.

Embora não exista uma fórmula mágica, podemos ter mais cuidado na hora de consumir informação, afinal podemos estar diante de um fato mas fora de contexto.

O site da Universidade Berkley possui uma cartilha para orientar a avaliação das fontes de pesquisa acadêmica, mas que são úteis e aplicáveis quando consumimos informação de um modo geral:

1 Autoridade — Quem é o autor? Qual o seu ponto de vista?;

2.Propósito — Porque o conteúdo foi publicado? Qual é a audiência que se pretende atingir?

3.Publicação e Formato — Onde foi publicado? (portal de notícia, blog, jornal, revista científica) Em que meio? (impresso, digital);

4.Relevância — Qual a relevância do conteúdo? Qual o seu intuito?

5.Data da Publicação — Quando foi escrito? Foi atualizado?

6.Documentação — O conteúdo cita as fontes utilizadas? Quais foram as fontes citadas?

Você pode acessar o guia completo em: https://guides.lib.berkeley.edu/evaluating-resources

Bibliografia:

Universidade de Berkley — Centro de Ensino e Aprendizagem. Fake News: Levando a educação digital para a sala de aula. Disponível em: https://teaching.berkeley.edu/fake-news-bringing-media-literacy-classroom Acesso em: 13 ago 2020

Cathy O’ Neil. Math of Weapons Destruction. Crown. 2016

Facebook. Informativo sobre a razão de determinados conteúdos chegarem até você. Disponível em: https://about.fb.com/news/2019/03/why-am-i-seeing-this/ Acesso em: 03 mar 2020

--

--

Harumi Miasato
Harumi Miasato

Advogada|Membro da Associação Nacional de Advogados(as) do Direto Digital ANADD e Associação Nacional dos Profissionais de Privacidade de Dados — ANPPD