Por que algoritmos de recomendação funcionam

Empresas usam mecanismos de recomendação para dizer o que comprar, ler e assistir. Mas esses algoritmos não são seus amigos.

Tera
Somos Tera
5 min readAug 19, 2020

--

(Adaptação do artigo originalmente publicado aqui, em inglês) Traduzido por Ana Flávia Garzon

Imagem via: Wired

Em março de 2019 um livro que apresenta uma teoria da conspiração bizarra — uma teoria cujo nome não mencionarei — disparou nas classificações de vendas da Amazon. A ascensão do título foi muito impulsionada quando o gigante do comércio eletrônico o colocou em seu carrossel de recomendações, que é mostrado aos compradores que não estão procurando por aquele livro específico. Isso gerou mais curiosidade e mais vendas. O que levou a mais recomendações.

A teoria da conspiração específica delineada neste livro afirmava que o presidente Donald Trump fingiu conspirar com a Rússia justamente para garantir que seria investigado, o que lhe daria a chance de colaborar secretamente com o promotor especial Robert Mueller para investigar e finalmente prender a ex-candidata presidencial Hillary Clinton, que pertenceria a um culto satânico global de pedófilos com Barack Obama e George Soros. Sim, é confuso. Então, por que a Amazon estava recomendando este livro para compradores desavisados? Não é porque essa teoria tenha um enorme poder de persuasão ou uma audiência do tamanho de um best-seller. A culpa é da tirania dos algoritmos de recomendação.

O que você deve assistir? O que deve ler? Quais são as novidades? Qual é a próxima tendência? Onde quer que você vá na internet, as empresas descobrem maneiras muito específicas e imperfeitas de responder a essas perguntas.

Para onde quer que você olhe, os mecanismos de recomendação oferecem exemplos notáveis ​​de como valores e julgamentos são incorporados a algoritmos e como esses algoritmos podem ser manipulados por atores estratégicos.

Considere um método comum (e aparentemente simples) de fazer sugestões: uma recomendação baseada no que pessoas “como você” leram, assistiram ou compraram. Quem é, exatamente, uma pessoa como eu? Qual a dimensão de mim? É alguém da mesma idade, sexo, raça ou localização? Elas compartilham meus interesses? Minha cor dos olhos? Minha altura? Ou a semelhança comigo é determinada por toda uma confusão de “big data” (também conhecida como vigilância) processada por um algoritmo de aprendizado de máquina?

No fundo, por trás de cada recomendação de “pessoas como você” está um método computacional que determina estereótipos através de dados. Mesmo quando esses métodos funcionam, eles podem apenas estar ajudando a consolidar os estereótipos que querem alcançar.

Eles podem facilmente recomendar livros sobre desenvolvimento de código para meninos e livros sobre moda para meninas, simplesmente rastreando o próximo clique mais provável. Claro, isso cria um ciclo de feedback: se você continua vendo livros de desenvolvimento nas sugestões pra você, é mais provável que acabe conferindo um.

Outro método comum para gerar recomendações é ir além nos padrões de como as pessoas consomem coisas. Pessoas que assistiram isso assistiram aquilo também; quem comprou tal item também adicionou aquele outro ao carrinho, etc. A Amazon usa muito esse método e, admito, costuma ser bastante útil. Comprou uma escova de dentes elétrica? Que bom que o refil de substituição correto aparece nas suas recomendações. Parabéns pelo seu novo aspirador de pó: aqui estão alguns sacos coletores que cabem certinho na sua máquina.

Mas essas recomendações também podem ser reveladoras de maneiras assustadoras. Por muito tempo, a Amazon recomendou chaves de segurança — uma alternativa de hardware mais segura à proteção por senha — para as pessoas que compraram meu livro sobre protesto online. Eu defendo que as pessoas devem comprar chaves de segurança e acho que estou feliz por algumas pessoas terem ouvido! Mas agora, todos que olham para a página do meu livro na Amazon recebem uma dose de informação sobre meus leitores e como eles se protegem.

Um método final para gerar recomendações é identificar o que é “tendência” (ou seja, o que está “trending” — termo usado para redes sociais, principalmente) e levar isso a uma base de usuários mais ampla. Mas isso também envolve fazer muitos julgamentos. Para começar, não há uma maneira única de definir o que é está sendo tendência no momento. Por exemplo, todos os dias há muitas conversas online sobre as Kardashians, mas elas não são tendência no Twitter o tempo todo. Isso porque a maioria dos algoritmos de recomendação do que está “trending” no momento emprega uma lógica que filtra termos comuns como ruído e destaca aqueles que têm aceleração e velocidade de impacto.

Essa definição de tendência enterra as conversas em andamento e amplifica coisas novas e sensacionais. Ironicamente, esse é frequentemente o problema da mídia tradicional também. Problemas sociais crônicos (assistência médica, falta de moradia, fome, acidentes de trânsito) são esquecidos, enquanto eventos mais raros (terrorismo, acidentes de avião) recebem cobertura sensacionalista e saturada. Isso não é surpreendente; a novidade chama a nossa atenção. Os algoritmos online exploram a mesma vulnerabilidade social que editores da mídia tradicional visam.

Mas aqui está o outro problema com algoritmos que valorizam velocidade em em vez de fatos embasados: não é tão difícil gerar um pouco de velocidade “forçada”. Todos os tipos de pessoas manipulam o sistema dessa maneira, muitas delas de forma complacente. Na verdade, eu aprendi os detalhes de como o algoritmo de tendências do Twitter funciona com ativistas pela democracia no Bahrein, durante a Primavera Árabe. Eles descobriram que suas discussões contínuas e em grande escala não eram registradas no Twitter, mesmo que o assunto dominasse a conversa nacional, mas que lançar uma nova hashtag (que, se fosse repentinamente usada por muitas pessoas) transformaria o tópico em tendência. Aí então os ativistas se coordenaram para criar hashtags totalmente novas e as seguraram por um período, para que todos twitassem ao mesmo tempo. Voilà: As hashtags em destaque da plataforma mudaram rapidamente, chamando a atenção global para a situação dos ativistas.

Mas o que funciona para um determinado grupo também funciona para outros. Suponho que seja assim que aquele livro de conspiração ganhou tanto destaque na Amazon: se um número suficiente de adeptos o comprasse de uma vez, em um esforço coordenado, isso teria sido o suficiente para fazer os algoritmos da Amazon notarem — e começarem a ampliar a divulgação daquele livro ainda mais.

Essa teoria da conspiração em particular pode ser maluca, mas não é brincadeira. Um extremista religioso, armado com uma AR-15, bloqueou a ponte na Represa Hoover em um veículo blindado; outros dois foram vinculados a supostos assassinatos. O fato dessas pessoas estarem organizadas o suficiente para estrategicamente manipular algoritmos não é um bom sinal. Esse tipo de cultos religiosos requerem atenção para recrutar pessoas, e os algoritmos de recomendação não deveriam facilitar que esse objetivo fosse alcançado.

Qual é a alternativa? No mínimo, deveria haver mais transparência sobre como e porque certas coisas são recomendadas para assistirmos, comprarmos ou lermos. O contra-argumento seria que essa transparência tornaria essas coisas mais facilmente manipuladas.

Meu contra-argumento é que talvez algoritmos tão fáceis de manipular não devessem ser usados por aí. Talvez devêssemos ser capazes de pedir ativamente por diferentes tipos de recomendações quando fazemos compras. Que tal livros que pessoas como eu raramente leem — mas que podem achar interessantes? Que tal me mostrar um tópico que foi discutido por um longo período de tempo entre uma grande comunidade de pessoas? Ou que tal me dar a capacidade de desligar todas essas recomendações de uma vez? Às vezes, menos é melhor.

--

--

Tera
Somos Tera

Um novo modelo de educação com foco nas principais habilidades para a economia digital: www.somostera.com