A Bolha nossa de cada dia

Suzana Mota
Ciência Descomplicada
5 min readJan 20, 2019

Dizem por aí, que a internet é um mundo lindo sem fronteiras, de acesso a informação e conhecimentos irrestritos, que tem o poder de mudar o mundo e nos transformar em pessoas melhores.

O fato é que a internet realmente têm todo o poder, de descortinar um mundo de maravilhas, mas não é bem isso que tem acontecido na prática. Estamos todos dentro de bolhas invisíveis, interagindo essencialmente com pessoas que estão em bolhas parecidas com a nossa e sabendo cada vez menos, como lidar com todas as outras pessoas.

A Bolha digital

Eli Pariser, escritor e executivo, publicou um livro chamado Filter Bubbles, lançado no Brasil como O filtro invisível, onde descreve como nosso histórico influencia tudo aquilo que nós vemos na internet. Tudo o que nos é mostrado tem a intenção de reafirmar nossas crenças, compartilhar informações relativas aos nossos interesses, prender nossa atenção e nos entreter continuamente; o que faz todo o sentido, do que passar por matérias e notícias que consideramos irrelevantes.

Hoje, a maior parte das pessoas acredita que ao procurar um termo no Google, teremos o mesmo resultado, já que a empresa possui um algoritmo que classifica a relevância de cada site de acordo com o termo buscado. Mas, desde dezembro de 2009, o algoritmo do Google leva em consideração “sinalizadores” da pessoa que faz a busca, levando em consideração: o navegador que está sendo utilizado, outros termos de busca que já foram utilizados, a localização do usuário, a idade, perfil, sexo e tantos outros detalhes.

Isso significa que pessoas diferentes, podem ter resultados de busca COMPLETAMENTE diferentes para o mesmo termo buscado.

Somos bombardeados diariamente com milhares de informações e nem todas tem relevância perante os nossos interesses, dessa forma, quando os filtros personalizados nos são oferecidos (abertamente ou não), temos a tendência a aceitá-los, já que ela vem com a promessa de nos entregar tudo aquilo que gostamos e nos interessamos, seja em formato de vídeo, áudio, notícias ou fotos.

Mas a Bolha dos filtros tem custos pessoais e culturais, podendo gerar grandes consequências sociais. O problema é que ignoramos as consequências: a vigilância constante nos prende em uma bolha de informação que distorce a realidade e esquecemos que outras perspectivas existem.

A Bolha já existe

A Bolha do filtro já é um fenômeno encontrado amplamente nas redes sociais como Facebook, Instagram e Youtube. Se você não acredita, escolha uma rede social e procure informações como:“cachorros fofinhos” durante uma semana e logo você vai perceber que receberá mais conteúdo de cachorros fofinhos ou assuntos correlatos com muuuuito mais frequência.

A forma como cada um de nós utiliza a internet, dá origem a bolhas de conteúdo, que existem graças aos algoritmos, que agora são capazes de aprender quais são os nossos gostos, nossas preferências, nossas crenças e preconceitos.

Dentro das nossas cabeças nenhum conceito vive isolado, as nossas ideias estão conectadas em redes e hierarquias, umas se apoiando sobre as outras. O conceito de chave, por exemplo, não tem utilidade sem os conceitos de fechadura e porta. Assim, se modificarmos completamente o conceito de porta, vamos precisar rever e alterar os conceitos que se relacionam com porta, o que daria um trabalhão para o nosso cérebro. Assim, funciona o viés de confirmação, todo nós lidamos com ele em menor ou maior grau.

O viés de confirmação é uma força mental que nos ajuda a proteger toda essa rede de conceitos construídos. É por isso, que é tão difícil fazer as pessoas mudarem de ideia, porque elas não estão a favor de um conceito que melhor demonstre o cenário, mas apenas de confirmar e apoiar o conceito que ela já acredita.

E esse tal viés de confirmação?

O Facebook por exemplo, observa cada um dos itens que você curte, compartilha e começa a aprender quais assuntos são do seu interesse. No fundo, a intenção era boa, oferecer aos usuários conteúdos que eles tenham maior chance de gostar.

Mas, o que tem acontecido é que esse reforçamento de conteúdos preferidos não nos tem permitido ver o outro lado da moeda e isso tem tudo a ver inclusive com a divisão de vermelhos e verde-amarelos nos palcos políticos brasileiros. Já que o Facebook tende a filtrar aquilo que é socialmente relevante para um grupo, dando a sensação de que quase todo mundo concorda com você.

Assim, a bolha dos filtros, tende a amplificar drasticamente o viés de confirmação. Consumir informações que reafirmam tudo aquilo que eu já acredito é muito fácil e prazeroso. Por outro lado, consumir informações que nos desafiem a pensar em novas perspectivas ou a questionar nossos conceitos é uma tarefa frustante e bem difícil ( quando foi a última vez que você leu um artigo até o final, que discordava completamente?). É justamente por isso, que os defensores de uma determinada linha política tendem a não consumir a mídia produzida por outras linhas, só consumindo artigos e notícias enviesados.

O que o Google sabe sobre você?

Se você tem um smartphone Android, o Google sabe quase tudo sobre você, veja aqui alguns dados que o Google armazena a seu respeito.

E como faço para estourar a Bolha?

Hoje em dia, é difícil fugir da bolha, se você tem uma conta no Google, Facebook, Instagram ou Youtube, você já está de alguma forma dentro de uma bolha, mas conseguimos minimizar este efeito, aprendendo a lidar com outros pontos de vista, consumindo outros conteúdos e seguindo as dicas abaixo:

  1. Faça buscas utilizando o modo anônimo do seu navegador, já que teoricamente, neste modo o Google não tem acesso aos seus dados.
  2. Não exclua os amigos que tem visões ideológicas diferentes das suas, clique nos compartilhamentos deles, de vez em quando, leia artigo com posições ideológicas que você NÃO concorda.
  3. Personalize suas preferências no feed de notícias do Facebook, você pode definir ali quais serão os critérios de exibição da sua timeline.
  4. Utilize outras fontes de informação, livros, revistas, jornais, podcasts, não se informe apenas pelo Whatsapp ou Facebook.

Para mais informações veja a apresentação abaixo do Eli Pariser no TED.

--

--