Quando o viés algorítmico é responsivo a culturas de uso: o caso do LinkedIn

Mariana Costa de Oliveira
iNOVAMedialab
Published in
5 min readMar 1, 2022

A mudança do algoritmo do LinkedIn, em resposta a questões de género identificadas no processo de job-matching.

Fonte: https://www.programaria.org/algoritmos-de-inteligencia-artificial-e-vieses-uma-reflexao-sobre-etica-e-justica/

Intitulando-se como “uma rede social e plataforma online para profissionais”, cuja função central é a combinação entre candidatos e vagas disponibilizadas por recrutadores da forma mais otimizada possível, o LinkedIn faz uso de algoritmos de recomendação baseados em Inteligência Artificial, que processam a informação e geram uma lista de recomendações para ambos os lados (candidato — recrutador).

No artigo LinkedIn’s job-matching AI was biased. The company’s solution? More AI. publicado na MIT Technology Review, encontra-se um testemunho do ex-vice-presidente de gerenciamento de produtos do LinkedIn, John Jersin, que afirma que as recomendações providenciadas pelo algoritmo do LinkedIn assentam em três categorias de dados: informações que o usuário fornece diretamente à plataforma; dados atribuídos ao usuário com base em outros; e dados comportamentais, como a frequência com que um usuário responde a mensagens ou interage com anúncios de emprego; alegando que estas recomendações não dependiam do nome, idade, sexo ou raça dos utilizadores.

Ainda assim, o algoritmo conseguia detetar padrões de comportamento exibidos por grupos com identidade de género, por exemplo, tendo em conta que mais regularmente os homens se candidatam a vagas acima das suas qualificações e as mulheres a vagas cujo perfil é fiel aos requisitos. Assim, cargos superiores passaram a ser associados pelo algoritmo ao perfil comportamental médio dos homens, o que resultou num maior número de anúncios e matches entre homens e cargos superiores.

Em 2017, o estudo de caso empírico Are There Gender Differences in Professional Self-Promotion? analisou as diferenças de género nas escolhas de autopromoção online, e como estas afetam as oportunidades profissionais em plataformas de contratação online. Os investigadores descobriram que as usuárias têm, tendencialmente, menor propensão de fazer uso de campos de dados do seu perfil que requeiram escrita em formato livre, como a secção “Sobre”, ou seja, o sumário onde o usuário se autodescreve, assim como a descrição de funções. Isto abre caminho para uma outra discussão, a de como devem os recrutadores analisar os perfis, priorizar os campos de dados e reconhecer as diferenças de género na autopromoção. Em relação a isto, o estudo sugere que uma maior relativização de campos mais subjetivos seria benéfica à diversidade de género na oportunidade e em ambientes profissionais.

Após a deteção desta viés algorítmica, a plataforma LinkedIn implementou no ano de 2018 uma nova Inteligência Artificial cujos resultados têm demonstrado maior neutralidade. Como foi este problema resolvido? O novo mecanismo de recomendação inclui uma distribuição representativa dos membros por género. Auditing for Discrimination in Algorithms Delivering Job Ads é um estudo experimental que veio confirmar que a distribuição de género nos anúncios de vagas não se verificou discriminatória no LinkedIn, pelo que, a mudança no sistema de recomendação parece estar a gerar resultados positivos no que toca à igualdade de género.

Como funciona atualmente o mecanismo de AI do LinkedIn no que se refere a job-matching?

Contextualizando, o uso de inteligência artificial é generalizado por toda a plataforma, e divide-se por diferentes modelos conforme a função desejada. O modelo Candidato Qualificado (QA) é um sistema diretamente ligado ao job-matching, já que é o responsável por destacar os empregos nos quais determinados candidatos serão considerados mais adequados a um recrutador, visando garantir eficácia e lidar com o caráter transitório que define o surgir e o desaparecer constante de vagas de emprego. Complementando, a AI do LinkedIn possui mais do que um modelo de treino, como é possível observar na imagem abaixo.

Fonte: https://venturebeat.com/2020/07/30/linkedin-details-ai-tool-that-better-matches-jobs-to-candidates/

Uma questão que tem sido analisada, é o ciclo vicioso que o algoritmo pode gerar ao apenas providenciar certas recomendações a certos perfis com base nas suas “preferências”. Este ciclo processa-se como na seguinte simplificação: o algoritmo analisa a nossa interação na plataforma, deteta um padrão comportamental e recomenda-nos conteúdo tido como relevante para esse padrão, acabando por fomentar uma repetição do nosso comportamento e a perpetuação do referido padrão. Ora, é sabido que o sexo feminino, assim como o masculino, possui padrões comportamentais médios, distintos entre si. Na prática, este padrão capacita o algoritmo de ser capaz de distinguir entre perfis com padrão masculino e perfis com padrão feminino — assim, por si só, intencionalmente ou não, o algoritmo discrimina.

O que pesa na sua “decisão”?

No funcionamento dos modelos personalizados, as interações entre o empregador e o candidato levam à criação de rótulos diários que por sua vez fazem uso de feedback e treinam novamente os modelos, após validação automatizada. Todo este processo pode levar vinte e quatro horas, sendo benéfica a sua redução para poucos minutos. Aqui, podemos observar que o mecanismo de AI gera rótulos determinantes em torno da interação dos utilizadores, o que embora seja necessário para o normal funcionamento da plataforma, pode, não ser assim tão justo e isento de erros — tudo reside naquilo que é ou não é tido em conta.

Em suma, da mesma forma que a própria AI auxilia a combinação perfeita, também poderá reduzir as oportunidades de job-matching. Embora, relativamente à questão de género inicial o problema pareça estar alegadamente resolvido, o funcionamento do algoritmo ainda é passível de ser discriminatório face ao modo como está estruturalmente desenhado. Isto é, ainda que possa parecer tecnicamente necessário e favorável à precisão do algoritmo, este não se limitar aos dados factuais de cada perfil, e ao invés detetar padrões com base em comportamentos pessoais e subjetivos como um sujeito preencher campos de escrita livre ou não, candidatar-se a cargos acima das suas capacidades ou não, assim como, captar preferências do recrutador com base em likes, e com isso gerar recomendações diferenciadas de candidatos e vagas de emprego pode ser ainda altamente incorreto e discriminatório.

Para um melhor entendimento do viés algorítmico em sistemas de Inteligência Artificial e Machine Learning, assista ao seguinte vídeo:

Série de ensaios produzidos por alunos do curso Novos Media e Práticas Web da Universidade NOVA de Lisboa. Mestrados NOVA FCSH I Unidade Curricular: Estudos de Plataforma e Social Media.

--

--