Fichamento: A relevância dos algoritmos

Esse artigo que explanarei — The relevance of algorithms — foi feito 2014 por Tarleton Gillespie, que se descreve no Twitter da seguinte maneira:
Eu sou um acadêmico independente, crítico da indústria de tecnologia, trabalhando para a Microsoft. Desconcertante. Meu novo livro é Custodians of the Internet (Yale, 2018)
Ainda no resumo do artigo, o autor faz um pedido:
“Precisamos questionar os algoritmos como elementos chave de nosso sistema informacional e das formas culturais que emergem de suas sombras. Devemos ter especial atenção sobre onde e de que forma a introdução dos algoritmos nas práticas do conhecimento humano podem levar a ramificações políticas.”
Enquanto isso, Cappra mostra total confiança na programação dos algoritmos, que reúne conhecimento do “homem+máquina=total precisão.”
Em outro momento, Gillespie discorre sobre a magnificência da ideia de criar um filtro, os algoritmos e compara até mesmo a ordem divina — mas em nenhum momento ele exalta a forma com que eles atuam na internet.
O fato de estarmos recorrendo a algoritmos para identificar o que precisamos saber é tão marcante quanto termos recorrido aos especialistas credenciados, ao método científico, ao senso comum ou à palavra de Deus (página 3 do artigo)
Na página 5, Tarleton fala sobre a relação do big data com os algoritmos, e em relação a ordem: primeiro as informações são coletadas (das mais relevantes para as semi-excluídas) para depois gerarem um filtro adequado para o usuário. Este ponto problemático, de até onde nossos dados chegam, o programador Ricardo Cappra fala com maior naturalidade, tratando como uma situação ordinária e 0 complexa
Os algoritmos constroem uma caracterização da gente com os dados disponíveis. Ricardo Cappra
Este outro trecho tirado do artigo reafirma, da visão de um especialista, o quanto o Google é invasivo:
O Google, por exemplo, rastreia os sites de indexação da web e seus metadados.Ele digitaliza as informações do mundo real, de acervos de bibliotecas a imagens de satélite ou registros fotográficos de ruas da cidade; convida os usuários a fornecerem seus detalhes pessoais e sociais como parte de seu perfil no Google+; mantém registros detalhados de cada pesquisa realizada e cada resultado clicado; adiciona informações com base na localização de cada usuário; armazena os rastros das experiências de navegação na web reunidas via suas redes massivas de publicidade (…)
Testes e ‘correntes’ no Facebook podem coletar dados e criar riscos
E essa falsa confiança que os detentores de popularidade mundial (como Facebook, alguns buscadores, mapas online…) passam para os usuários, fazem com que seus dados estejam de fácil acesso sem nem se darem conta disso.
Preconceito das máquinas: como algoritmos podem ser racistas e machistas…
E assim como no artigo é citado o exemplo que o algoritimo do site da Amazon “confundiu” um livro gay-friendly na categoria Adulto, muitos outros erros acontecem.
Como não há uma métrica independente capaz de dizer quais seriam realmente os resultados de pesquisa mais relevantes para qualquer busca, os engenheiros precisam decidir quais resultados parecem “corretos” e ajustar seu algoritmo para atingir esse resultado (…) Página 10.
E para a conclusão, não temos dúvidas de que o algoritmo está em cima do muro entre o que seria bonzinho ou vilão. Um mecanismo que está abrangendo todos nós, que além de se moldar pelos nossos gostos, também está nos moldando!
