‘Bolha’ do Facebook? Comece pelas notícias falsas, Mark

“WikiLeaks desmascara participação de Hillary Clinton em rede de pedofilia”.

“Donald Trump disse que imigrantes brasileiros são porcos latinos “

“Lula tem fortuna de US$ 2 bilhões e está na lista de mais ricos do mundo da Forbes”

“Michel Temer vai proibir uso da Bíblia a partir de 2017”

As discussões sobre a vitória de Donald Trump nas eleições americanas lembram sensações rotineiras dos brasileiros há bons anos: a profunda divisão política que desagua em brigas entre familiares e amigos. Sentimentos de ódio disparados contra grupos rivais. E muita, muita informação falsa disseminada — caso desses 4 títulos acima.

A expressão “democratização do conhecimento”, que soava bonita no começo da popularização da internet, hoje parece vaga demais. Afinal, que conhecimento? Que informação?

Duas forças distintas, mas que existem entrelaçadas, são protagonistas no modo como recebemos informação atualmente:

1. a formação de uma “bolha” no Facebook, que entrega em nossa timeline apenas histórias condizentes com o nosso modo de pensar e impediria a percepção de uma realidade bem diferente na vida off-line

2. o aparecimento de notícias com histórias falsas e/ou distorcidas de sites obscuros, principalmente em grupos de WhatsApp.

São dois fenômenos já discutidos no Brasil, por conta do momento político no país, embora de forma bem tímida e esparsa. Nos EUA, o triunfo de Trump está levando a uma análise obsessiva do peso das redes sociais na disseminação da informação. A ponto de Mark Zuckerberg, dono do Facebook e do WhatsApp, refutar em público acusações de influência de sua empresa na vitória de Trump (o “New York Times” diz que, a portas fechadas, há dúvidas dentro da companhia sobre essa influência).

É impossível mensurar com precisão esse peso do Facebook. E são necessários mais estudos para determinar de fato o quanto a nossa timeline realmente nos encerra numa bolha. Arriscamos que a influência seja grande (está fresco na memória o caso da última eleição para prefeito na cidade de São Paulo, em que muitos observaram um apoio maciço a Fernando Haddad na timeline, sem que isso transparecesse no resultado final), mas é preciso fazer o negócio direito, com metodologia, para descobrir o quanto a “bolha” nos isola.

O que vemos é um dane-se-tudo-isso com a noção de cuidado na divulgação de uma notícia. Espere, estou sendo impreciso: é desinformação deliberada.

Já a questão da disseminação de notícias falsas é indiscutível. É mais urgente, mais factível de solução, mais importante. Jornalistas que se prezem sabem o quanto é (ou deveria ser) delicado cravar uma informação. Essa prática de responsabilidade muitas vezes gera acusações de que nós jornalistas estamos “protegendo” acusados. (“Como assim vocês chamam de suspeito? Ele é um assassino! Tá tudo na cara, parem de aliviar!” são comentários muito recorrentes).

O que vemos é um dane-se-tudo-isso com a noção de cuidado na divulgação de uma notícia. Espere, estou sendo impreciso: é desinformação deliberada. O mais importante é prejudicar o grupo político rival. Ou apenas fazer dinheiro fácil, como adolescentes da Macedônia com boatos sobre Hillary Clinton e os que faturam com notas de dados falsos ou distorcidos, postadas diretamente na área de publicidade do Facebook.

Seja por um ou pelo outro, o resultado é que um link com informações “podres” atende um viés de conforto/confirmação para reforçar a visão de mundo de pessoas dentro de sua “bolha”. É um sistema de retroalimentação que existe, cujo real impacto, reforço eu, ainda precisa ser conhecido.

Podemos debater que isso já ocorre de modo off-line há décadas ou até o direito de cada um de se encerrar em sua própria bolha. Mas o que acontece se a difusão de informações mentirosas crescer de forma exponencial? Não haverá mais medida da verdade, ou do mais próximo que conseguimos chegar perto dela.

O Facebook está usando inteligência artificial para combater o problema. Eu acho que curadoria humana é fundamental. O que proponho aqui é um conceito, sem um estudo técnico sobre sua implementação no Facebook — WhatsApp é um pouco mais complicado, porque as interações têm visualizações restritas. Mas acredito que seja factível, se não dessa forma, com um processo que atinja um resultado similar:

1. Que o Facebook monitore quais são as principais notícias em alta na audiência. Há ferramentas que detectam um salto repentino no número de cliques e compartilhamentos de posts. Dessa forma tanto URLs quanto prints poderiam estar cobertos.

2. Análise imediata desse conteúdo que está trendando, por equipes próprias ou em parcerias de sites de checagem. Ou, ainda melhor, um esforço conjunto das duas partes. Com algum investimento em pessoal, é possível dar conta dos “hits” do momento que contenham informações suspeitas. Já é um bom trabalho.

3. Sinalização de que há questionamentos sobre esse conteúdo vinculado. Uma sugestão é aparecer um aviso no momento em que alguém clica ou compartilha o post com conteúdo questionável, com esclarecimentos feitos pela equipe de checagem. Também poderia aparecer forma destacada na seção de links recomendados logo abaixo na timeline de cada usuário, como uma espécie de contraponto.

4. Categorizações: além de informações falsas, há dados ou declarações verdadeiras divulgadas anos atrás que, fora de contexto, levam a conclusões errôneas hoje. Uma sinalização específica, ou destaque para data de publicação, também é importante.

É uma tarefa que finalmente começa a ser discutida seriamente e precisará da colaboração de muita gente. Mas é urgente. Ações no Facebook seriam uma redução de danos significativa, embora ainda com uma grande tarefa a cumprir. O importante é dar o primeiro grande passo em nome da guerra à desinformação.

SHIN OLIVA SUZUKI é editor de mídias sociais no site G1, da TV Globo. Teve passagens pelo jornal Folha de S.Paulo, pelo site Folha.com e pela Rádio Eldorado. As visões expressas nesse artigo são totalmente pessoais.