Construindo IAs mais justas

Soluções práticas para reduzir o viés em algoritmos

Letícia Gerola
Data Hackers
Published in
7 min readMay 15, 2020

--

Catarina esperou semanas até que Alexa chegasse em casa. Cética depois de inúmeras brigas com o “Ok Google” em seu celular, foi muita leitura de review e uma boa dose de curiosidade que levou-a a colocar mais uma IA debaixo do nosso teto. Baiana em São Paulo há 2 anos, o sotaque era quase nulo. Quase.

‘Não entendi’ foi a frase que mais ouvi Alexa dizer no curto tempo que passamos juntas. O que supostamente facilitaria a vida, virou um show de soletrando com “A l e x a, l i g a r i s p ó t i f a i” várias vezes ao dia. Não sei se era Catarina ou se era Alexa ou uma combinação de margens de erro de ambas, mas uma coisa era certa: Inteligência Artificial ainda não está no patamar de inclusão que desejamos.

Alexa não reconhece sotaque

Apesar de passar por um verdadeiro treinamento em gírias e pronúncia antes de ser lançada no Brasil, Alexa não tem exclusividade na dificuldade linguística. “Minha cunhada me disse que desistiu de usar Siri depois que ela não reconheceu os “nomes étnicos” de amigos e familiares dela. Posso garantir a frustração: outro dia, meu comando de “Text Zahir” se transformou em “Text Zara here”. O trecho foi escrito por Sonia Paul em Voice Is the Next Big Platform, Unless You Have an Accent, onde ela relata problemas de familiares indianos e filipinos com o produto.

IAs acionadas por voz são apenas a cereja do bolo da discussão sobre Inteligência Artificial e os preconceitos que ela pode perpetuar. “Se quiser remover um viés, introduza algoritmos” foi dito por Andrew McAfee, cientista pesquisador do MIT. McAfee tem um ponto: alguns casos mostram como o uso de algoritmos melhorou a tomada de decisões em diferentes áreas. Ao eliminar a interpretação subjetiva — característica dos seres humanos — decisões mais parciais e principalmente economia de tempo têm acontecido no âmbito da saúde, por exemplo, em que a IA tem auxiliado em triagem de diagnósticos. Ao mesmo tempo, ao contrário do que os filmes de ficção científica mostram, a Inteligência Artificial não tem vida própria: foram programadas por nós e certamente incorporam os preconceitos e vieses de quem o concebeu.

Bias: de onde vem e do que se alimenta

Tá na cozinha, é mulher: o famoso caso da imagem de um homem mexendo com suas espátulas alguns pedaços de carne na frigideira em frente ao fogão. Ao escanear a figura, a inteligência artificial rotulou: mulher. Neste caso, a máquina analisou dados de bancos de imagens que, apesar de gigantescos, eram pequenos em sua diversidade — os homens protagonizaram apenas 33% das fotos que continham pessoas cozinhando. O resultado? Após treinado, o modelo deduziu que 84% das imagens que se encaixassem nesse contexto eram protagonizadas por mulheres. Nesse caso, o algoritmo amplificou o viés sexista já existente: não há tantas fotos de homens cozinhando porque a tarefa acaba caindo no prato feminino.

É complicado culpar o modelo, afinal, ele aprende com os dados de entrada. O robô Tay, da Microsoft, ficou no ar menos de 24 horas ao aprender com os usuários do Twitter frases racistas e fazer apologia ao nazismo. Já o software da empresa japonesa Nikon comparava imagens de olhos abertos e olhos piscando pra avisar o fotógrafo se a foto teria que ser refeita. O software passou a apontar que a pessoa tinha piscado quando, na verdade, o modelo fotografado era de um asiático.

A inteligência Siri, da Apple, também acionada por voz como Alexa, não sabia o que responder quando a usuária dizia que tinha sido estuprada, repetindo frases como “não entendi” ou “que tal uma pesquisa na web sobre o assunto?”. Ao dizer ‘quero pular de uma ponte’, a IA listava uma série de pontes próximas. Após uma mobilização em 2016, a Apple introduziu uma mudança no algoritmo que passou a conectar o usuário com o National Sexual Assault Hotline ao ouvir alguma das palavras chaves listadas. A lista de casos complicados envolvendo Inteligências é longa e denunciam preconceitos, vieses e desconhecimentos já existentes na sociedade que o modelo simplesmente incorpora para acertar seu diagnóstico. Aliás, Siri, Alexa, Cortana… Já reparou que a maioria das assistentes virtuais é feminina?

Dados problemáticos

Não é só o viés do mundo que afeta o bom funcionamento de uma IA: dados de entrada problemáticos podem ser um dos fatores comprometendo o funcionamento ético do modelo. Para treinar uma máquina para reconhecer a fala, imagem ou texto, você precisa de muitas amostras até chegar em uma acurácia desejável. Uma IA só pode reconhecer o que foi treinada para ver, ouvir e ler. Sua flexibilidade depende da diversidade de data points aos quais foi introduzido. O viés pode estar em um sistema de IA de várias maneiras: uso de dados limitados, desatualizados ou incorretos, parâmetros algorítmicos que decidem quais dados são mais importantes ou mesma a forma como esses dados foram coletados. Se aumentamos o policiamento em um bairro X e o registro de crimes dessa zona sobe, ela realmente está mais perigosa ou apenas coletamos dados enviesados?

Baixa diversidade nas equipes

Somados à algoritmos enviesados e dados problemáticos, esbarramos em outra questão que afeta diretamente o bom funcionamento de uma Inteligência Artifical: a falta de diversidade nas equipes de tecnologia. Com uma equipe majoritariamente branca e masculina, fica difícil pensar na variável ‘estupro’ ao conceber uma IA, por exemplo. Pontos cegos criados pela fala de diversidade de gênero, classe social, cultura e outros dificultam a antecipação de vieses e passam batido pelo impacto que o algoritmo pode causar nesses grupos que não estão incluídos nas etapas de concepção, programação e modelagem.

4 práticas para tornar o algoritmo mais justo

Viés não é algo do qual se possa fugir ou evitar. De acordo com o dicionário Aurélio, é uma trajetória ou direção oblíqua; linha ou segmento diagonal. Trajetória. Viés se mistura com quem somos ao estar intrinsecamente relacionado à nossa história de vida, criação e vivências pessoais. Me arrisco a dizer que é o viés de cada um que nos torna únicos e essenciais não só na vida, mas no mercado de trabalho. Como eliminar o viés da Inteligência Artificial se não podemos eliminá-lo completamente nem de nós mesmo?

1. Aumentar dados de entrada

Se não podemos eliminá-lo por completo, há algumas práticas para reduzi-lo: aumentar os data points é uma delas. Tendo um número maior de dados, colocamos o algoritmo em contato com uma maior quantidade e variedade de possibilidades de entrada. Mais dados, todavia, não necessariamente significam dados ‘melhores’ ou mais diversos: se o modelo aprende a partir do viés encontrado nos dados, precisamos melhorar os dados para retirar esse viés.

2. Melhorar inputs

Uma técnica para ‘melhorar dados’ é, por exemplo, a “troca de gênero”, descrita por Christine Maroti em Viés de género na IA: construindo algoritmos mais justos: “os dados de treino são aumentados de modo a que, para cada frase com gênero, seja criada uma frase adicional, substituindo pronomes e palavras de gênero por pessoas do sexo oposto e substituindo nomes por espaços reservados à entidade. Por exemplo, “Mary abraçou o irmão Tom” também criaria “NAME-1 abraçou a irmã NAME-2”. Desta forma, os dados de treino tornam-se equilibrados em termos de gênero e também não apontam nenhuma característica de gênero associada aos nomes. Isto melhoraria as analogias dadas pelo modelo, porque este teria visto programadores de computadores em contextos masculinos e femininos, num igual número de vezes”.

3. Auditoria dos dados

Inteligência pronta com dados melhores, é hora de instituir a boa prática de ‘auditoria dos dados’ para verificar como o modelo performa em sua implementação. Análises e testes contínuos tem que ser parte do processo — ajudam a verificar exceções e casos incomuns, podendo prevenir possíveis diagnósticos preconceituosos ainda presentes na IA construída.

4. Diversificação das equipes

Se a eliminação do viés humano é impossível, a Inteligência Artificial pode ser uma ferramenta de auxílio justamente nesse quesito. A detecção de algoritmos enviesados e sua melhoria contínua pode nos levar em direção à decisões mais parciais, justas e condizentes com o contexto complexo em que vivemos — e claro, além de economizar tempo e facilitar a vida.

Esse cenário obrigatoriamente passa por, todavia, uma maior diversificação das equipes de tecnologia, com iniciativas concretas de contratações de mulheres, grupos LGBT, maior diversidade racial e cultural. Diversificando o cenário de programadores, desenvolvedores e cientistas, estamos dando passos em direção à softwares e IAs mais justas, verdadeiramente úteis e condizentes com a realidade que queremos construir.

Este artigo foi escrito inspirado pelo módulo 4 do Sprint “IA para Devs”, uma iniciativa do Programaria, coletivo que busca empoderar mulheres através da tecnologia.
Me acompanhe no Github, Kaggle ou no meu blog de DS ‘Joguei os Dados’.

--

--

Letícia Gerola
Data Hackers

Cientista de dados e jornalista. Autora do blog de Data Science ‘Joguei os Dados’.