Um ano de monitoramento sem Facebook. O que aprendemos e o que ainda temos a aprender.
Há um ano o Facebook desativou a API que permitia o acesso das ferramentas de busca ao conteúdo de posts públicos e feed de notícias. A decisão deixou órfãos os profissionais de monitoramento e data analytics mundo afora. Aqui no Brasil tivemos algumas razões extras para lamentar. Talvez a primeira grande questão é que nos tornamos muito dependentes do Twitter, uma rede que não espelha as características sócio econômicas do Brasil tão bem quanto o Facebook e onde as reações são geralmente mais impulsivas e menos reflexivas. Tudo, claro, isso sem entrar na óbvia limitação de traduzir o mundo a partir de frases de 140 caracteres. Mas ainda há um outro fato que se fala somente a boca pequena. No Twitter convivemos sempre com um número desconhecido de bots, muita vezes, um grande número deles. Em um dos poucos estudos sobre o assunto, realizado pela Medialogue Digital, estimou-se que em certos momentos das eleições presidenciais de 2014 cerca de 30% dos posts foram gerados por robôs. Diga-se que o problema não é prerrogativa do Brasil. Nos Estados Unidos, o papel dos bots em eleições vem sendo discutido com interesse e preocupação cada vez maiores.
Bom dizer logo que o problema não é o Twitter. Com os devidos ajustes, a rapidez e a precisão do microblogging são imbatíveis em uma série de situações, como no monitoramento de em ações de varejo e outras que requerem o pulso da rede em tempo real. O bloqueio aos dados do Facebook deixou um vazio principalmente nas análises de eventos sociais multifacetados e de grande repercussão. O caso do impeachment é interessante pois a discussão acomodou vários grupos e posicionamentos diferentes, resultando em um painel bastante complexo e de difícil interpretação. Muitas empresas de monitoramento e grupos de pesquisa tentaram interpretar o sentimento da rede mas o que se viu não é o que se poderia chamar de estimulante. A maioria dos relatórios publicados não ultrapassou os limites das análises tipo “subiu, desceu/positivo, negativo”.
Para a Medialogue Digital a discussão desse tema é fundamental. Nossa empresa trabalha em ambientes de grande volume de informações, alta complexidade e pressão social, como por exemplo, eleições. Provavelmente, realizamos a última grande operação de monitoramento e analytics executada no Brasil com os dados do Facebook: a cobertura das eleições presidenciais de 2014. Foram mais de 60 milhões de posts gerados e analisados sobre os quatro principais candidatos, Dilma Rousseff, Aécio Neves, Marina Silva e Eduardo Campos. Um projeto de fôlego, que nos rendeu lições e colocou questões para as quais ainda não encontramos respostas adequadas.
As eleições americanos vem funcionando com um laboratório avançado de data analytics e análises preditivas. Alguns especialistas sustentam que em breve as máquinas vão executar melhor do que nós o trabalho de capturar e interpretar dados. Essa também é nossa preocupação: onde alocar com mais eficiência, e em que proporção, o talento dos cérebros humanos e a capacidade das máquinas. E como chegar a boas conclusões em um ambiente onde os dados são escassos? Há como trocar o Twitter pelo Face?
Semanas atrás um software desenvolvido pelo Google derrotou o grão mestre Lee Sedol em um jogo de tabuleiro chamado Go. Muitos especialistas afirmaram que o resultado dessa partida é mais significativo do que a derrota do campeão de xadrez Garry Kasparov pela máquina Deep Blue, criada pela IBM há 20 anos. Diferente do xadrez, preciso e analítico, Go requer habilidades essencialmente humanas, como a intuição. Assim como na derrota de Kasparov, a imprensa alertou, em tom mais ou menos lúgubre, para mais uma barreira quebrada pelas máquinas no caminho de um mundo dominado por robôs. Coube ao jornalista científico George Johnson, do New York Times, colocar o caso em perspectiva. Segundo ele, o feito memorável não pode ser descrito com a batalha de uma máquina contra um homem. Na verdade, por trás do projeto AlphaGo trabalharam dezenas de cérebros humanos que analisaram milhares de padrões de jogadas feitas por humanos. Segundo Johnson, não foi a vitória de uma máquina, mas sim a de um exército humano.
O fato é esse, aparentemente, as máquinas ainda dependem mais dos humanos do que o contrário.