Técnicas de Inteligência artificial podem ser usadas para automatizar análises falsas em sites, sugere estudo

Por Leonardo Carvalho

Um time de pesquisadores da Universidade de Chicago demonstrou a possibilidade de uso de redes neurais recursivas e machine learning na geração de comentários e análises falsas de produtos e serviços na web com objetivos maliciosos.

A técnica, descrita no documento “Automated Crowdfunding Attacks and Defenses in Online Review Systems”, é apresentada como a próxima evolução de uma prática conhecida como “crowdturfing”, uma combinação das palavras “crowd” (multidão) e “astroturfing” (prática de mascarar uma mensagem com o objetivo de fazer com que ela tenha surgido de maneira espontânea). Na técnica, grupos de pessoas são contratadas por agentes mal intencionados com o objetivo de detratar ou promover uma pessoa, instituição, ideia ou produto na web através de campanhas de desinformação.

O artigo dá um exemplo: “um atacante paga a um grupo uma determinada quantia para escrever análises negativas de um concorrente através de contas falsas (…). Como essas contas são criadas por pessoas de verdade, elas passam despercebidas por ferramentas que procuram por atividades anômalas”.

A prática é lucrativa: em 2011, um outro estudo da Universidade da Califórina em Santa Bárbara apurou que nove entre os 10 maiores vendedores de serviços no site de serviços freelance Fiverr usavam o crowdturfing para oferecer serviços de aumento artificial no número de seguidores no Twitter, no tráfego de websites ou de curtidas no Facebook; o maior destes perfis lucrou pelo menos US$ 3 milhões em dois anos de serviço.

Também é reconhecidamente usada para fins políticos: recentemente foi noticiado que a gigante do tabaco Philip Morris teria usado da prática para convencer políticos a legalizar cigarros eletrônicos contendo nicotina na Austrália.

Os autores do novo estudo sugerem que o a evolução no campo da inteligência artificial pode tornar esse tipo de campanha ainda mais eficaz, e muito mais difícil de ser detectada. Em entrevista a um site notícias australiano o professor Ben Zhao (um dos autores do estudo recente e participante da pesquisa de 2011), comentando sobre o uso de Inteligência Artificial no crowdturfing, afirmou que “um dos aspectos interessantes deste tipo de ataque é que ele é diferente de outros ataques automatizados (…) existem poucas defesas possíveis contra isso hoje”.

O que são redes neurais e como elas podem ser usadas nesses ataques

Redes Neurais Artificiais são “técnicas computacionais que apresentam um modelo matemático inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência”.

Apesar dessas redes ainda não serem capazes de gerar textos capazes de mimetizar a linguagem humana com alto grau de verossimilhança, os autores do estudo consideram que, no atual estágio de desenvolvimento, elas já poderiam ser treinadas para simular “conteúdo curto gerado por usuários, como avaliações em sites”.

No modelo proposto, um atacante hoje precisaria apenas conseguir uma base de dados contendo comentários e/ou avaliações (sites como o Yelp fornecem isso de forma aberta), afim de determinar padrões e contexto para o conteúdo gerado. Essa fonte de comentários seria combinada à abundante capacidade de processamento disponível atualmente — também possível de conseguir a custo relativamente baixo.

A tabela a seguir mostra alguns exemplos de uma série de comentários gerados por uma rede neural treinada pelos pesquisadores tendo como alvo um restaurante de Nova York; o campo “Temperature” no exemplo é um indicador de “originalidade” do conteúdo gerado, temperaturas mais baixas indicam conteúdo mais repetitivo.

Os pesquisadores temem que o baixo custo do ataque — quando comparado com sua versão atual, que depende de grandes grupos de pessoas trabalhando de forma coordenada — torne seu uso atrativo por criminosos e outros agentes mal intencionados. “Antes havia um gargalo: conseguir que alguém sentasse e escrevesse conteúdo sério, significativo e que fizesse sentido no contexto em que estava postado (…) isso custava muito dinheiro. Agora esse gargalo pode ser totalmente ignorado”, disse Zhao.

Like what you read? Give Tempest Security a round of applause.

From a quick cheer to a standing ovation, clap to show how much you enjoyed this story.