Feednorância

As raízes do que nos motiva a disseminar informação falsa na web

Carlos Cabral
Coletividad
Published in
10 min readMay 18, 2016

--

Ilustração de 1876 representando uma das sessões dos julgamentos ocorridos entre 1692 e 1693 no episódio que ficou conhecido como "Os julgamentos das Bruxas de Salem" e resultou na execução de vinte pessoas (imagem: Wikipedia)

Meses atrás uma brincadeira tomou conta das redes sociais: postar notícias antigas sobre a morte de celebridades e ver quantos compartilhavam o post (e o pesar) sem se dar conta de que a notícia era velha. A pegadinha da segunda morte envolveu nomes como os do músico Ravi Shankar (morto em 2012) e do ator Leslie Nielsen (morto em 2010).

É impossível determinar, dentre tantos que repassaram as notícias, quem estava enganando e quem estava sendo enganado. Entretanto, o caso chamou a atenção para um comportamento muito frequente nas redes sociais e algo que alguns manipulam: o quanto é fácil fazer uma meia verdade (ou uma mentira completa) se multiplicar na rede.

Bendito Feed

Dos antigos sites pra cá, a forma de consumir conteúdo se desenvolveu para o feed: a agregação de posts com origem em diversos canais que alimentam uma plataforma cuja visualização das "notícias" é baseada na rolagem de tela.

Com essa tecnologia, se tornou possível juntar tudo que é interessante em uma interface só, algo genial.

As redes sociais se aproveitaram desse modelo para exibir o conteúdo em uma timeline. Entretanto, como qualquer um pode produzir conteúdo e "alimentar" o feed dos outros (com o perdão da redundância) isso pode gerar uma histeria na timeline das pessoas. Assim, para diminuir o desconforto do ruído — e também manter o ambiente propício aos anúncios — algumas redes sociais fazem uso de algoritmos e privilegiam alguns conteúdos em detrimento de outros.

O que quero dizer é que um indivíduo não vê em seu feed do Facebook, por exemplo, tudo o que é compartilhado pelos seus amigos, mas somente aquilo que o algoritmo do Facebook elegeu como relevante se baseando no que seus amigos postam e em suas preferências.

Com os algoritmos, a rede social eliminou aquilo que era mais interessante na tecnologia do feed: a possibilidade das pessoas acompanharem todo o conteúdo que quiserem e decidirem o que ignorar por sua própria vontade.

Todo Sentimento

O que torna um conteúdo viral? Pesquisadores da escola de negócios da Universidade da Pensilvânia resolveram investigar isso avaliando o que motiva as pessoas a compartilharem conteúdo.

Dentre as descobertas, os acadêmicos constataram que conteúdo de tom positivo (útil, engraçado, etc…) possui mais chances de viralizar que um conteúdo de tom negativo. Isso explica, por exemplo, porque os Youtubers mais bem pagos são aqueles com conteúdo ligado ao entretenimento ou tutoriais.

Entretanto, essa pesquisa também avaliou quais são os sentimentos que mais motivam as pessoas a compartilharem posts e, mesmo que certos conteúdos não "viralizem", a raiva é o sentimento que mais faz as pessoas passarem a mensagem adiante.

Por mais que tentemos pensar o contrário, não é a racionalidade que faz com que cliquemos no botão "compartilhar". Se aceitamos o fato de existirem "teorias" de marketing que conduzem as pessoas a escolherem alguns produtos ao invés de outros no supermercado, por que um raciocínio semelhante não seria aplicável à internet?

A racionalidade não é regra nas redes sociais, nem para o que se posta, muito menos para o que se compartilha. Na verdade, “a gente se ilude, dizendo: ‘já não há mais coração’" e o que realmente existe ali é a amplificação de sentimentos disfarçados de argumentação racional.

Bolhas Confirmatórias

Convencer alguém de qualquer coisa na rede social é um ato heróico. Há no além-vida um espaço de paz e serenidade reservado àquelas pessoas que dedicaram tempo e esforço na luta por mudar a opinião de alguém comentando posts. O Valhalla também reserva um cantinho pacífico nos vales frondosos da humildade para os que já escreveram: "eu estava errado e você mudou a minha opinião" em uma timeline para todo mundo ver.

A verdade é que as redes sociais são um terreno de "convertidos esclarecidos" e isso, claro, é somente uma reprodução de como somos tendenciosos.

Lá pelos anos 60 a psicologia social já identificava em nós o "viés de confirmação", ou seja, uma capacidade muito peculiar de reforçar nossas crenças e hipóteses iniciais mesmo quando deparados com fatos que comprovem o contrário. É mesmo difícil pra gente ter contato com comprovações de que estávamos errados e mudar de pensamento, sobretudo quando isso envolve crenças ideológicas ou religiosas.

E o viés de confirmação é algo tão interessante que não somente envolve o privilégio da crença em detrimento do fato, mas também o privilégio em selecionar evidências e fontes que condizem com uma crença.

Imagine milhões de seres despejando as suas vaidades e neuras na mídia social e os algoritmos trabalhando para identificar quais neuras e vaidades combinam com quais círculos, visando tornar a experiência na rede agradável pois, caso contrário todo mundo vai embora e a rede não fatura.

Há também o viés que opera nos escritórios das redes sociais, pela atuação de funcionários que determinam que conteúdo pode ou não entrar ou pela promoção a "trending" de conteúdos que nem estavam tão em evidência assim, mas combinavam com as preferências de quem opera a máquina.

Por outro lado, quando algo escapa ao algoritmo e à censura dos funcionários das redes, nós mesmos acabamos por fazer o filtro[1], eliminando gente que não combina conosco. Assim evitamos o contato com ideias contrárias, porque não importa se elas estão certas ou erradas, elas incomodam.

O resultado de tudo isso é que formamos bolhas.

As bolhas não se manifestam somente na rede social, é possível percebê-las em buscas do Google. Entretanto é na rede social que é mais fácil notar que são criadas realidades artificiais em que o mundo é formado por "mim e por aqueles que se parecem comigo e juntos evitaremos opiniões contrárias".

Aposto que concordamos que o melhor caminho para enfrentar opiniões contrárias é pelo diálogo. Entretanto, o oceano de emoções da mídia social é cheio de territórios em que o jogo baixo predomina e muitos usam de informações mal fundamentadas e mentirosas para defender um ponto de vista.

Tanto, que o Fórum Econômico Mundial considera a disseminação de boatos online, o que eles chamam de Digital Wildfires (comparando com incêndios em florestas), como um risco global. O assunto chamou a atenção de um grupo de pesquisadores italianos que coletou dados de milhões de indivíduos no Facebook e fez diversos estudos, buscando entender como teorias da conspiração se espalham com mais facilidade do que conteúdos científicos que as desqualificam, polarizando usuários nas redes sociais.

Esses estudos demonstraram que os crentes das teorias da conspiração agem nas redes de maneira tal que é muito difícil convencê-los de que estão errados, mesmo demonstrando fatos, estudos científicos e qualquer outra coisa.

Isso porque eles estão inseridos em uma narrativa com fundamentos definidos, formadores de opinião que operam como câmaras de eco e o reforço do grupo. É uma narrativa que tem explicação para tudo (independente de ser verdadeira ou não) e forma devotos.

Isso sem falar de trolls que publicam mentiras de propósito para justificar milhões de pageviews e ganhar dinheiro com isso ou causar tumulto.

Se isso resultasse em problemas somente no âmbito da rede social (o que já traz sérias implicações) seria menos ruim. Particularmente penso que não existe mais essa distinção entre mundo virtual e real, pois a vida prática é uma junção das duas coisas. Entretanto, o que procuro mostrar é que disseminar informações falsas ou sem embasamento online gera sérias implicações na vida das pessoas e para mostrar isso examinaremos um caso prático.

O centro de mídia do Estado Islâmico

Comparar estas ideias com a polarização política que o povo brasileiro demonstra nas redes sociais é uma consequência lógica e que faz todo sentido. Mas o fato de estarmos atolados nela poderia nublar a visão de muitos sobre o problema que quero demonstrar. Então preferi trabalhar com um caso um pouco distante.

O Instituto Quilliam publicou no ano passado um estudo muito interessante que documenta a estrutura de propaganda do autoproclamado Estado Islâmico. Em um mês eles documentaram a divulgação de 38 lotes de propaganda por dia, em uma mistura de memes, vídeos, áudios, textos e outros.

Os pesquisadores puderam perceber que o "califado virtual" opera como uma marca, produzindo conteúdo para cada tipo de público alvo (inimigos, simpatizantes e passíveis de recrutamento) e o tempo todo abastecendo cada público com a narrativa da Charia, mas também complementando-a com o discurso belicoso contra os "infiéis" e de pertencimento aos simpatizantes.

Estrutura do Centro de Mídia do Estado Islâmico — (imagem: Quilliam)

É fácil dar mais atenção ao material do EI montado para aterrorizar os inimigos, com aquele monte de decapitações, mas gostaria de discutir aqui a parte de recrutamento deles. Pois é relevante buscar entender o que motiva pessoas que não nasceram sob regras como a do Estado Islâmico a mergulharem nesse modo de vida e cometerem atos extremos e de forma autônoma, como nos ataques de San Bernardino e Paris.

O que o Estado Islâmico conseguiu fazer — e muito se deve à forma de disseminação de sua propaganda — foi tornar o terrorismo uma atividade crowdsourced.

Pesquisadores da George Washington University buscaram entender essa questão analisando casos de 71 pessoas detidas nos EUA por atuar em favor do EI, seus métodos de comunicação e formas de recrutamento.

Foram catalogados três tipos de contas no Twitter a serviço no EI: o primeiro tipo são os "nodes" ou nós. Estas são as contas de formadores de opinião, pessoas de destaque que criam conteúdo e possuem muita influência. O segundo são os "amplificadores", gente que não cria muito conteúdo, mas agrega muitos seguidores porque se dedica a pesquisar e replicar conteúdo fresco dos "nodes". Já o terceiro grupo, chamado de "shout-out", não cria quase nenhum conteúdo, mas possui uma função crucial na rede; a de avisar os seguidores sobre as novas contas de membros que tiveram a conta anterior suspensa.

Ter a conta suspensa pela rede social já é uma mensagem em si, algo digno de uma medalha de honra entre eles, pois a conta compartilhou tanto material que viola as regras da rede (ou dos "infiéis") que foi desativada.

Mas talvez o tema mais importante do estudo gira em torno de que tipo de apelo essa mensagem atende. Uma ideia recorrente no relatório tem a ver com "senso de pertencimento". Ou seja, os jihadistas afirmam que, em sua vida anterior (fora do EI), não conseguiam se sentir parte de algo e o Estado Islâmico ofereceu a eles uma oportunidade de participar de algo grande, como "limpar o mundo dos infiéis e fazer parte de uma comunidade de irmãos".

Muita gente é obcecada por mostrar na mídia social que vive uma vida de sonho, outros postam que estão fazendo algo muito legal um dia ou outro. Ninguém é o tempo todo tão feliz assim, mas no "caldo" fica a imagem de que o mundo está rico e contente, enquanto o espectador segue sua vida ordinária, sem graça e sem pertencer a algo grande. É nesses indivíduos que a narrativa do Estado Islâmico passa a fazer sentido.

Quando a narrativa envolve a invenção de um inimigo, o aconchego do pertencimento e é disseminada como se fosse a opinião da maioria, ela se espalha feito um miasma e são criadas as condições para um desastre.

Troque os nomes dos heróis e dos inimigos e você verá uma narrativa, talvez não tão violenta, mas com objetivo de manipulação semelhante rondando você.

O que fazer então?

Giovanni Sartori tem um argumento bem interessante sobre a televisão: ele diz que a TV prejudica nossa capacidade de abstração. Ou seja, quando lemos um texto, refletimos sobre ele e isso faz com que a leitura crie um espaço que favorece o questionamento. Já a TV tem o poder da imagem que nos faz aceitar as coisas mais facilmente, podendo nos tornar pessoas passivas.

O feed, que já foi algo em que poderíamos ter acesso a tudo que quiséssemos, tem nas redes sociais um elemento de passividade. Não porque as redes são o mal que manipula as pessoas, mas porque muitos abrem instintivamente o aplicativo do Facebook para se distrair, da mesma forma que ligam a TV e rolam a tela da mesma forma que trocam de canal. Produtores de conteúdo já se conformaram que o publico está ali para se distrair, porque ninguém quer ler mesmo. Então, eles se esforçam para se adaptar e chovem vídeos e imagens… É algo retroalimentado.

Quem viu a apresentação de Mark Zuckerberg na última conferência F8 — sobretudo quem já teve contato com o visionário romance "O Círculo" de Dave Eggers — sabe que isso é só o começo.

Não há caminhos muito claros a seguir, o próprio Walter Quattrociocchi, que liderou os estudos feitos na Itália os quais mencionei acima, diz que é muito difícil combater o "Viés de Confirmação". Já o estudo do Quilliam Institute deixa muito claro que "o desejo global de encontrar uma panaceia que opere como uma contra-narrativa para minar a marca Estado Islâmico é equivocado. Categoricamente, não existe tal coisa".

Ou seja, a coisa pode ser tão forte que, assim como nos "incêndios em florestas", o caminho pode ser o de resfriar o entorno para conter o fogo e esperar ele se extinguir.

Outra saída é a dos algoritmos. Isso ja é algo que se discute no Google e também há um debate na Agência Européia de aplicação da lei sobre a criação de um filtro contra o discurso de ódio. No entanto estes mecanismos nos remetem à censura, que é um terreno complicado.

Enquanto não surge uma saída, talvez a melhor alternativa para nós todos nesse momento seja a mais difícil: Assumir. Assumir pra si mesmo que já se deixou levar pela emoção e postou críticas sem qualquer fundamento. Assumir que compartilhou aquela "notícia" sem validar se ela realmente faz sentido. Assumir que podemos ser vítimas de discursos manipuladores a qualquer momento. Ou até assumir que caiu na pegadinha da segunda morte.

Assim, a gente aprende.

[1] Pesquisadores ligados ao Facebook publicaram um estudo no ano passado que avaliou o comportamento de 10 milhões de contas na rede com o objetivo de verificar se as bolhas são formadas pela ação das pessoas ou pelo funcionamento do algoritmo.

Segundo eles a responsabilidade por se enclausurar em grupos de iguais tem mais a ver com a atividade do usuário.

Visite Startups & Encontre Videos, Livros, Escolas, Professores, Eventos, Cursos, Faculdades, Meetups, Bootcamps, Artigos, Podcasts de Design, Tecnologia, Negócios e Inovação.

https://coletividad.org

--

--

Carlos Cabral
Coletividad

Head of Content Production na Tempest. Escrevo sobre hacking, ataques, vulnerabilidades e outros assuntos do universo da segurança da informação.