Viés Algorítmico — Inteligência Artificial e Misoginia
Mathwashing: termo designado por Fred Benenson, engenheiro de dados estadunidense, para o senso comum que vê nos algoritmos a matemática como neutra. O questionamento que surge, logo em seguida, é: se os algoritmos são projetados e desenvolvidos por seres humanos, por mais que se utilize de matemática e lógica, como podem estar livres de vieses, preconceitos e crenças pessoais? A resposta é que eles não estão livres e não são imparciais, pois possuem uma base de dados e aprendizados que determinam as suas tomadas de decisões e ações em geral.
O viés algorítmico encontra-se em inteligências artificiais que se desenvolvem a partir de mecanismos de aprendizado e operam a partir de padrões. Como os aprendizados são adquiridos através de treinamento, tendo como base a coleta de dados e a assimilação de modelos de comportamento, o direcionamento dessas informações adquiridas, realizado pelas pessoas que desenvolvem o projeto, faz com que as chances de haver discriminação algorítmica (envolvendo atitudes que reforçam a misoginia, o racismo e a homofobia, por exemplo) seja grande.
Os vieses algorítmicos podem ser: raciais, relacionados ao gênero, à nacionalidade, à orientação sexual, à deficiência e à idade. Podendo vir através da definição de um alvo, das escolhas de amostras, da coleta de dados, do uso de modelos simplistas e/ou por correlações distorcidas.
Do viés relacionado ao gênero, tem-se o exemplo da misoginia e sua presença em padrões de comportamento de assistentes virtuais via inteligência artificial. O problema é reforçado, é claro, pela interação dos usuários com as referidas tecnologias.
Um estudo lançado pela UNESCO, em 2019, chamado I’d Blush If I Could (Ficaria Corada Se Pudesse, em português) revelou que as assistentes virtuais via inteligência artificial sofrem altos índices de assédio. E o que vem à tona é o fato de todas as assistentes terem algo em comum: nomes de mulheres e vozes que remetem ao gênero feminino.
Outro ponto que chamou atenção através do estudo informado foi que, quando assediadas, as assistentes sempre reagem com respostas passivas, tolerantes e subservientes — Sendo, inclusive, o nome do estudo, I’d Blush If I Could, uma resposta padrão das assistentes para mensagens assediadoras. A partir da análise deste ponto, outras informações surgem; sendo uma delas a de que, de acordo com a UNESCO, as assistentes são programadas basicamente por homens.
Sendo programadas basicamente por homens, fica a impressão de que essa tecnologia é desenvolvida para atender às expectativas deles, revelando a existência de ações programadas que os deixam confortáveis frente as reações das mulheres ao assédio. Ou seja: a misoginia e a violência contra a mulher são reforçadas.
A partir dos dados obtidos pelo estudo citado, surgiu, este ano (2020), um manifesto chamado Hey Update My Voice, também através da UNESCO. O manifesto visa contribuir para a educação virtual das gerações atuais e futuras e é aberto para todos, trazendo também uma reflexão de suma importância: se as assistentes virtuais sofrem um percentual absurdo de assédio, quantas mulheres reais são vítimas dessa violência?
O que acontece no padrão de comportamento de uma inteligência artificial é ensinado à ela, há mecanismos de aprendizado induzidos por seres humanos, ou seja, é, também, uma representação do que acontece no mundo real.
O #HeyUpdateMyVoice funciona a partir de contribuição coletiva, onde, no site, há um campo denominado “sua voz”, onde é possível gravar novas sugestões de respostas (mais impositivas e não tolerantes a assédios) para as assistentes virtuais. O objetivo é que empresas possam utilizar as sugestões e aplicar as novas respostas às tecnologias, possibilitando a reeducação e a conscientização sobre o assédio e a violência contra a mulher.
Fontes:
https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1%C2%A0
https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1%C2%A0
https://www.nexojornal.com.br/externo/2019/11/24/A-parcialidade-dos-algoritmos
https://www.campograndenews.com.br/artigos/vies-algoritmico-na-interpretacao-de-dados
.