Facebook e democracia: o lado de fora da bolha

Eu estava na cozinha da minha casa quando comecei a ouvir o zumzumzum da rua. Não entendi nada. A primeira coisa que me veio à cabeça foi que devia ser um bloco de Carnaval tardio. Olhei os prédios em volta e vi as pessoas vaiando e fazendo barulho. Liguei a TV e entendi: era o primeiro panelaço. Era a história, ali, acontecendo na minha frente — mas eu não estava sabendo porque aquilo estava fora da minha bolha, criteriosamente moldada segundo filtros, usuários bloqueados e preferências pessoais expostas todos os dias nas redes sociais.

Agora, a tese da bolha, ou ‘filtro-invisível’ (o filter bubble), cunhada há alguns anos, pelo ativista, pesquisador e empreendedor Eli Pariser, foi colocada à prova. Na época, Pariser causou polêmica quando afirmou que, em vez de abrir os horizontes, a internet estava, na verdade, fechando as pessoas em seus próprios círculos. E isso era culpa dos algoritmos que filtram conteúdos, criados por empresas como Google e Facebook, para classificar o conteúdo exibido ao usuário conforme seus próprios interesses.

Um time de pesquisadores do Facebook resolveu investigar o poder da bolha — de que maneira os usuários são privados de receber conteúdo diferente de sua linha de pensamento na timeline. O resultado, publicado na revista Science, está provocando discussões acaloradas e controvérsias. Spoiler: sim, nós estamos presos na bolha. A questão é: nós temos a opção de entrar ou sair dela?

No estudo, os pesquisadores analisaram o comportamento na rede de 10 milhões de usuários do Facebook que assinalaram suas preferências políticas em seus perfis (liberais ou conservadores). O estudo deixou claro que, sim, no Facebook você tem mais tendência a ver conteúdos que são populares entre as pessoas que têm o mesmo ponto de vista que você. E que o algoritmo do Facebook (alimentado por nosso próprio comportamento na rede) amplifica a visão política a qual você pertence. A surpresa foi que o efeito é menor, em termos de porcentagem, do que Pariser preveu. Mas isso não o torna menos importante.

Esta reportagem explica bem o resultado:

O Facebook se encarrega de mostrar aos progressistas 22% de conteúdo que desafia sua ideologia. Já os conservadores enxergam 33% desse tipo de postagem — conservadores têm um pouco mais de interesse pelas ideias dos adversários do que o contrário. Segunda a pesquisa, se a rede social não soubesse a orientação política dos usuários, eles visualizariam respectivamente 24% e 35%, índices muito semelhantes. E chegariam a esses percentuais pelas suas próprias escolhas: suas amizades, suas curtidas, seus comentários. Ou seja, se há uma “bolha ideológica”, somos nós mesmos quem nos colocamos para dentro. O Facebook só facilitaria o enclausuramento nessa gaiola aconchegante dos que concordam conosco.

O Facebook usou esses dados para justificar que a escolha individual importa mais do que os algoritmos. Isso mata a teoria do filtro-bolha? Eu acho que não, pelo contrário: explica muito do que estamos vivendo na rede hoje.

“Nós podemos esperar que quando as pessoas tem a chance de escolher quais notícias ler, elas optem por aquelas com as quais elas tendem a concordar mais”, escreveu Christian Sandvig, professor de comunicação na Universidade de Michigan. Para ele, essas escolhas levam a mais seletividade e polarização — algo potencialmente danoso numa democracia.

O acadêmico criticou a maneira como o Facebook interpretou os resultados, minimizando os riscos da polarização e atribuindo a ‘culpa’ da bolha aos próprios usuários. A pesquisa foi amplamente questionada — por sua amostragem, metodologia e vínculo com o Facebook -, mas eu vou falar aqui da minha experiência empírica como usuária brasileira e interessada em política e internet.

A revolução será postada (mas talvez a gente não veja)
Pensei muito nestas questões ao fazer uma reflexão sobre como nós, que nos consideramos progressistas, perdemos o domínio da rede (uma ferramenta tradicionalmente usada para fazer política e, porque não, revoluções) e fomos engolidos por uma nuvem de intolerância (de ambos os lados). Não é segredo que o discurso reacionário está muito mais forte do que a pauta progressista. Se antes éramos nós que estávamos na internet e capitaneávamos campanhas com hashtags, agora essas ferramentas foram devidamente apropriadas por eles.

Nos anos em que trabalhei cobrindo tecnologia, acompanhei de perto a Primavera Árabe, o Occupy Wall Street, o 15M, e como a tecnologia foi utilizada por esses grupos para mobilizar pessoas, provocar discussões e até derrubar governos. Aqui no Brasil, de maneira mais tímida, vimos a internet se levantar contra a Lei Azeredo, e dessa briga surgir o Marco Civil da Internet (que depois caiu no troca-troca político, mas isso é outra história). Enfim: realmente acreditávamos que a web era um palco para articulação e mudanças concretas.

E é. Mas talvez não do jeito que estávamos pensando. Fechados em nossa própria bolha, deixamos de acompanhar os outros lados.

Depois de junho de 2013 e a ascensão de uma nova consciência política — a insatisfação generalizada contra a corrupção -, os governistas, os desiludidos (que sentem que o governo petista já não os representa mais) e a oposição clássica (tanto os liberais quanto os conservadores) batem de frente, e entre eles há um abismo: parece que não há diálogo possível.

Claro que a culpa da polarização não é só do Facebook. Porém, se levarmos em conta que 70% dos brasileiros que estão no Facebook usam a rede social para se informar(estamos falando de mais de 90 milhões de pessoas!) e os mecanismos de seleção de conteúdo só exibem aquilo que o usuário possivelmente vai curtir, não é difícil concluir que a grande parte das pessoas se informa, basicamente, através dos contatos e páginas que têm um ponto de vista semelhante ao seu. Por escolha própria ou pelo algoritmo, o isolamento é o mesmo.

Silenciar o outro no Facebook é muito simples: basta esconder a publicação, deixar de seguir a pessoa ou, em casos extremos, desfazer a amizade. Porém, nem sempre fazemos isso conscientemente — estamos também sujeitos à ação do algoritmo. Nós o alimentamos com o nosso comportamento online, e também nos comportamos online de acordo com o que ele nos exibe: é uma via dupla.

Imersos neste sistema, ficamos sem saber o que o outro pensa. Nesta semana, o advogado Pedro Abramovay publicou outra história surpreendente que também prova o quanto nós desconhecemos nós mesmos.

Quando 90 milhões ficam fechados em um sistema que alimenta suas opiniões e cala as contrárias, a polarização parece inevitável. O Facebook pode tentar jogar a culpa nas pessoas, mas não pode negar o quanto o funcionamento do seu sistema contribui para a exarcebação dos ânimos — e da falta de diálogo. Vi muita gente surpresa com o tamanho das manifestações de março e abril. De onde veio a surpresa? Toda a articulação aconteceu na internet, para todo mundo ver (mas nem todo mundo teve acesso a essas informações).

Em 2012, Pariser disse à revista Época:

É uma forma muito sutil de censura. Você não é proibido de ver nada, mas sua atenção é dirigida de forma que você não note que a informação existe. Como dependemos cada vez mais dos resultados de busca ou de indicações nas redes sociais para chegar a um conteúdo na internet, o filtro invisível pode esconder páginas e pessoas definitivamente. As consequências disso podem ser muito graves.

Nós não sabemos ainda as consequências deste nosso isolamento em nossas bolhas particulares de interesse, mas levando em consideração o atual cenário de polarização e falta de diálogo, eu acho que Pariser estava certo. Precisamos sair da bolha.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.