Pesquisa realizada no Brasil estuda a influência de robôs e fake news na democracia
Como as tecnologias digitais estão sendo usadas para influenciar os resultados de processos eleitorais? Como elas poderão ser usadas nas eleições brasileiras de 2018 e quais estratégias podem ser usadas para combater um uso que possa ser prejudicial à democracia?
As respostas para essas perguntas começaram a ser investigadas em janeiro deste ano pela pesquisa “Influência de Robôs e Fake News nas Eleições Brasileiras de 2018”, do Instituto Tecnologia & Equidade (IT&E). A equipe responsável pelo estudo é formada por Ellen Aquino e Carlos Júnior, pesquisadores, e Márcio Vasconcelos, codiretor do IT&E. O estudo será concluído no final de maio e irá ao mundo por meio de dois produtos: uma pesquisa detalhada e um White Paper.
Um dos principais focos da iniciativa é entender o possível impacto dos perfis não humanos em redes sociais nas eleições de 2018. A pesquisa busca compreender a influência psicológica da comunicação digital para mudar comportamentos e atitudes em processos eleitorais; compreender o funcionamento detalhado das principais estratégias e processos usados para manipular pessoas em eleições; identificar e investigar principais mecanismos de combate à manipulação digital (fake news e bots) atuais; gerar aprendizados que informem o desenvolvimento de novas estratégias e processos de contra-ataque e antídotos anti-manipulação, incluindo sistemas de detecção de bots.
Desafios e metodologia
Ao todo, mais de 40 perguntas foram identificadas ao longo do estudo. Entre elas, estão: “Como a capacidade de desinformação e debates disfuncionais podem mudar a opinião de eleitores?”; “Qual é o tamanho do impacto provocado por robôs na mudança de opinião do eleitorado brasileiro?”; “Quais são as principais estratégias, técnicas, tecnologias sociais e digitais para manipular pessoas no meio digital em contextos eleitorais?”.
Segundo os pesquisadores, um dos maiores desafios é a sistematização da grande quantidade de informação que está sendo produzida sobre esses temas nos últimos tempos. Exemplo prático disso foi a rapidez que a equipe reuniu as referências: mais de 130 em poucas semanas. Outro desafio tem sido aplicar a metodologia do IT&E para a pesquisa, que é o pensamento complexo formado por diversos autores. Donella H. Meadows é uma das referências.
Nesse método, o foco da pesquisa é identificado como parte de um ou mais sistemas em maior dimensão. E identificar os pontos de alavancagem (locais dentro de um sistema complexo — uma economia, um ecossistema, uma cidade, um corpo vivo — nos quais pequenas mudanças em determinado ponto podem causar grandes mudanças no todo) é um convite a pensar amplamente sobre as mudanças do sistema. A partir disso, é possível criar um caminho de reflexões e entendimentos profundos que se mostram acessíveis e compreensíveis, e também, que fomentam a elaboração de um novo olhar em relação à desinformação nas eleições, todo processo estrutural das fake news e bots, e demais temáticas tratadas na pesquisa.
Um constante desafio para trazer a visão de pensamento complexo para o estudo é traduzir essa informação para que o público-alvo entenda. “Já produzimos alguns Mapas Conceituais (que são representações gráficas semelhantes aos Mapas Mentais) para testar essa visão com elementos que fazem parte do Sistema Eleitoral. Porém, a complexidade desse Sistema é bastante alta e certamente ainda precisamos refinar os Mapas que temos para que eles possam — ao mesmo tempo — representar a complexidade real do Sistema Eleitoral e serem compreendidos pelo público que queremos atingir”, afirma Márcio Vasconcelos.
Destaques
Fake news e utilização de bots fazem parte de um fenômeno mais amplo que conhecemos como desinformação. A falta de informação, ao se misturar com o avanço tecnológico, precisa ser vista em seu contexto político e em uma sociedade com estrutura polarizada. Dessa forma, os pesquisadores buscam explorar os processos de boas práticas e sugerir um novo olhar para o cenário que a sociedade vai enfrentar nas eleições de outubro deste ano.
Um dos papéis da pesquisa é compreender os caminhos da desinformação no ecossistema da mídia tradicional e da mídia online. Entre as ações está compreender de que forma a estrutura da desinformação é criada e mantida. Em relação às organizações, a pesquisa destaca o comportamento das plataformas de mídias sociais, como Facebook, Google e Twitter, que são os principais sistemas que desencadeiam, atualmente, o processo da desinformação, a construção e a utilização de bots.
Segundo a pesquisa, tem sido cada vez mais recorrente o surgimento de estudos voltados ao campo da psicologia para compreender o processo de comunicação digital dentro e fora do cenário político. Existem vários aspectos psicológicos, cognitivos e teóricos que podem explicar o comportamento e os influentes poderes das estratégias utilizadas nos processos eleitorais.
Exemplo disso é a utilização de notícias falsas nas eleições que potencializam a comunicação com foco na desinformação devido a um viés cognitivo inerente da natureza humana, onde a notícia falsa pode ser percebida como real pelos consumidores. E uma vez que a percepção errônea é formada, é muito difícil corrigi-la.
Quanto mais dados sobre os usuários, mais efetiva será a ação. Nesse ponto, números passam a revelar informações da nossa comunicação intra-pessoal, revelando informações de comportamento não verbal; e interpessoal, sendo capazes de traduzir, a partir de nossas interações sociais, diversos conteúdos psicológicos e de comportamento. Esses fatores são capazes de revelar informações sociais, genéticas, culturais, situacionais, e o principal: sentimentos.
Boas Práticas
Uma das grandes dificuldades atuais é a velocidade da disseminação de uma informação falsa, diante da reprodução da notícia verdadeira ou corretiva (atualização em cima de notícia que foi dada ou uma nota falando a veracidade). E a verificação de fatos não tem acompanhado a fábrica da desinformação.
Exemplo de boa prática criada para colaborar para essa verificação é a iniciativa da Agência Lupa ao criar oficinas de checagem abertas a todas as idades e formações. Tudo isso com o objetivo de fazer com que usuários sejam capazes de identificar o que é e o que não é “checável”. Isso eleva o nível de cuidado com o que se lê e se compartilha, e é capaz de criar um senso crítico que terá capacidade de avaliar quão verdadeira é aquela notícia.
Essa prática da colaboração social e da educação é chamada de verificação orientada para colaboração coletiva (crowdsourcing). Entender como o mecanismo da desinformação funciona e ser capaz de criar ferramentas ou estratégias de minimização são ações importantes para o embate no cenário atual, principalmente para as instituições governamentais.
Termos e tendências
Quatro anos são muito tempo em termos de tecnologia. O que vimos na eleição passada já evoluiu e atualmente encontramos ferramentas inteligentes. Uma tendência apontada é que cada vez mais os algoritmos bots vão estar mais inteligentes e preparados para diversas ocasiões. E engenheiros de software trabalham bem mais próximos de conceitos da psicometria e da psicologia.
Desde 2014, os candidatos já utilizam Big Data para analisar perfis de eleitores e realizar análise de opinião popular. A tendência é que os bots futuramente comecem a utilizar esses dados que já são capturados há alguns anos. A partir de nossas experiências, os bots melhoram as interações utilizando recursos capazes de analisar interações, reunir dados e fazer muitas outras ações de forma mais eficiente.
“As campanhas vão continuar existindo, mas o que vai fazer a diferença vai ser o político usar a tecnologia como ferramenta de ação. Isso porque dados são utilizados para maximizar a eficácia de uma campanha. O próximo nível usará a inteligência artificial nas campanhas eleitorais e na vida política”, destaca o estudo.
Os pesquisadores apontam que a chave do processo que acontece hoje e que permanecerá no futuro é a coleta e a utilização de dados. Tal coleta pode ser realizada com a comercialização de dados por empresas que os retém. “Por isso, é fundamental trabalhar em prol de uma lei de proteção de dados pessoais no Brasil, em especial o PL 5.276/2016 que busca definir o que pode ser coletado e o que pode ser comercializado”, afirma a pesquisa.
A pesquisa afirma que as próximas eleições não serão um concurso de ideias, ou de fortalecimento de valores, mas uma batalha de mudança de comportamento automatizada. Por isso, os candidatos devem se comprometer a utilizar a tecnologia, a coleta de dados e a inteligência artificial de forma ética e criteriosa para garantir que suas tentativas de influenciar os eleitores não prejudiquem e atentem contra o processo democrático, gerando grandes assimetrias.
Mecanismos de combate à manipulação digital
O estudo aponta a importância da atuação de diversos agentes para proteger e preservar a integridade do processo democrático. Alguns deles, como o Tribunal Superior Eleitoral (TSE), as agências de fact-checking, as organizações da sociedade civil e plataformas digitais, precisam se aprofundar continuamente para entender como a estrutura é criada e como todos os avanços ocorrem. “Eles precisam acompanhar as transformações para entenderem e serem capazes de criar antídotos. Sem essa força e articulação entre os atores, é inevitável combater o processo da desinformação”, afirma a pesquisa.
O estudo alerta e traz outras ações para resolver o desafio da desinformação, como a criação de métodos avançados de rastreamento de padrões de disseminação de notícias falsas online, a remoção de criadores de notícias falsas e disseminadores, incluindo sites de impostores e bots sociais. “É fundamental ter em mente que qualquer inovação tecnológica que se proponha nesse campo ficará distante de promover um aprofundamento democrático caso não venha acompanhada de um objetivo de fortalecimento da consciência quanto à importância de uma construção política fundamentada em ética, democracia e equidade. Acreditados nisso, oferecemos uma proposta Modelo Complexo para uma Eleição Informada, Democrática e Equitativa em nossa pesquisa”, diz o estudo.
Texto por Instituto Tecnologia & Equidade