Currículos descartados por algoritmos: instituições alimentam a desigualdade e o preconceito da organização algorítmica?

Laura Teresa de Carvalho
TED/UNEB
Published in
2 min readDec 27, 2020

Na pressa e no calor do momento em que os RH precisam empregar um funcionário para ocupar algum cargo, é muito provável que se você tiver em algum processo seletivo online o algoritmo vai decidir seu potencial através de uma simples leitura dos seus dados e comparar a de outros candidatos.

Essa facilidade para a empresa, comprimir tais informações e deixar um “bot” analisar selecionando os “candidatos ideais” libera uma discrepância em questões preconceituosas e discriminatórias trazendo consequências na sociedade.

Um exemplo disso aconteceu quando a Amazon verificou a saída de seus algoritmos e, felizmente eles compartilharam seu “fracasso”. Essa saída mostrou como o preconceito se infiltrou nos processos de contratação da empresa. A Amazon utilizou 500 modelos para reconhecer quais pistas previam sucesso, definindo como alguém foi contratado na empresa. Ao descobrir a existência de preconceitos, a empresa também descobriu pistas sobre sua origem. Certas palavras nos currículos das pessoas foram associadas à contratação — verbos que expressam confiança e descrevem como as tarefas foram realizadas, incluindo “executado” e “capturado”. A maioria dos candidatos que usaram essas palavras era do sexo masculino; estaticamente, essas pistas foram correlacionadas com o gênero.

Essa conclusão permitiu que a Amazon identificasse o preconceito em suas decisões de admissão anteriores. Os gerentes de contratação provavelmente não sabiam que esse vocabulário em específico os influenciava. Ou talvez eles tenham percebido essa linguagem como um sinal de confiança de alguém. Eles podem estar mais convictos nisso do que em outras informações do currículo, pensando que a confiança é um indicador de competência mais útil do que realmente é.

Estamos sendo avaliados profissionalmente por algoritmos que não possui inteligência emocional para entender cada processo individual de cada trabalhador e ainda que de certa forma assegura a vaga para um só tipo de público, pessoas que dividem os mesmos pensamentos e até que tem os mesmos padrões de vida.

É importante que as companhias saibam da importância da interação humana pois a opinião humana é necessária para avaliar com precisão uma saída algorítmica. Assim como investem nesses sistemas algorítmicos, que possam também incluir uma revisão e manutenção para promover menos desigualdades.

https://hbr.org/2019/08/using-algorithms-to-understand-the-biases-in-your-organization

--

--