Ilustração: MIT Sloan Management Review

Ética entre zeros e uns

À medida que a Inteligência Artificial compõe grande parte de nossas vidas, a ética passa a representar um código essencial em seu desenvolvimento

Vanessa Petuco
Aprix Journal
Published in
9 min readMay 20, 2021

--

Grande parte da nossa noção de inteligência artificial vem da ficção científica. HAL 9000 de 2001: Uma Odisseia no Espaço, Comandante Data de Star Trek, C3PO de Star Wars, e outros exemplos de robôs que pensam e se comunicam como seres humanos. Esta compreensão, no entanto, ainda é puramente fictícia. Na realidade, a Inteligência Artificial se resume a cálculos matemáticos realizados por computadores. Apesar destas máquinas conseguirem aprenderem por conta própria, elas ainda não pensam por si só. Ou seja, há a necessidade que elas sejam desenvolvidas por seres humanos. Dessa forma, valores e vieses acabam sendo embutidos nos algoritmos programados. Sendo assim, à medida que a Inteligência Artificial compõe grande parte de nossas vidas, a ética passa a representar um código essencial em seu desenvolvimento.

“Nenhum computador 9000 jamais cometeu um erro ou distorceu uma informação.” 2001: Uma Odisseia no Espaço (1968)

Origem

A ideia de criar um computador capaz de pensar e agir como um ser humano tem origem muito antes do surgimento dos modernos computadores digitais. Por volta da década de 1940, Warren McCulloch e Walter Pitts teorizaram a estrutura e o funcionamento das redes neurais computacionais (Artificial Neural Networks — ANNs), que buscavam reproduzir a estrutura biológica do cérebro humano. Aluno de McCulloch e Pitts, Marvin Minsky utilizou como inspiração as teorias de seus professores e criou o SNARC, uma calculadora de operações matemáticas que tentava simular as sinapses neurais humanas. Paralelamente, no contexto da Segunda Guerra Mundial, Alan Turing juntamente com um grupo de matemáticos desenvolveram uma máquina capaz de ler, escrever e apagar símbolos binários em uma fita e, com isso, decifrar o código militar alemão gerado pela máquina de criptografia Enigma.

Os pais fundadores da Inteligência Artificial (1956)

O marco zero da Inteligência Artificial, no entanto, se deu somente em 1956 em uma conferência organizada pelo Departamento de Matemática de Dartmouth, nos Estados Unidos, que reuniu grandes nomes da matemática e da ciência da computação, tais como Marvin Minsky, John McCarthy, Claude Shannon, Alan Turing, Nathaniel Rochester e Roger Penrose. Durante cerca de oito semanas, os especialistas chegaram à conclusão de que era possível construir computadores capazes de realizar tarefas baseadas na cognição humana. Assim, sob o lema “Todos os aspectos da aprendizagem — ou qualquer outra característica da inteligência — podem, em princípio, ser descritos tão precisamente que uma máquina será capaz de simulá-los”, se cunhou o campo de pesquisa com o nome de Inteligência Artificial.

O primeiro duelo entre Kasparov e Deep Blue (1996)

Aplicações

Na época, entendia-se que era possível demonstrar o nível de inteligência desta tecnologia por meio de sua performance em jogos de xadrez. Tal comprovação ocorreu, efetivamente, em 1996, quando o supercomputador da IBM denominado Deep Blue venceu de Garri Kasparov em uma partida de xadrez. Ainda que a aplicação desta tecnologia tenha evoluído para outros jogos, permitindo a criação de projetos como o Alpha Go, a Inteligência Artificial tem sido aplicada em outros aspectos de nossas vidas, tais como a saúde, a segurança, a produtividade, o ócio.

Atualmente, a Inteligência Artificial está amplamente presente no ambiente digital. Exemplos não faltam: nos algoritmos de pesquisa do Google, nas recomendações de filmes e séries da Netflix, de músicas do Spotify, de vídeos do YouTube, de amigos e páginas para seguir nas redes sociais. Os modelos de Processamento de Linguagem Natural (PLN) estão implicados, por exemplo, no buscador do Google. Juntamente ao PLN, o reconhecimento de voz é a base do funcionamento das assistentes pessoais, como a Siri da Apple, a Cortana da Microsoft e a Alexa da Amazon. Outro uso da Inteligência Artificial está nos softwares de reconhecimento facial, utilizados desde na identificação de fotos em redes sociais até como substitutos de senhas em smartphones. Setores de marketing e propaganda têm tirado muito proveito dos algoritmos de Inteligência Artificial para desenvolver e difundir anúncios segmentados de acordo com o perfil dos consumidores, bem como para analisar o comportamento do cliente e sua movimentação pelos sites e e-commerces.

Outra área que tem sido altamente beneficiada é o setor da saúde. A Inteligência Artificial tem possibilitado progressos inimagináveis em poucos anos atrás, como por exemplo o diagnóstico de câncer de mama em até cinco anos antes de sua manifestação. O modelo, desenvolvido por pesquisadores do MIT (Instituto Tecnológico de Massachusetts) e do Massachusetts General Hospital, prevê 31% dos casos de pacientes de alto risco, o que representa um grande avanço na prevenção da doença, considerando que os métodos convencionais preveem apenas 18% dos casos.

O reconhecimento facial aplicado em câmeras de segurança também é amplamente utilizado para auxiliar a polícia a identificar criminosos (AWS)

Além disso, decisões relevantes têm sido postas cada vez mais nas mãos dos algoritmos. Departamento de recursos humanos estão utilizando as aplicações de IA em chatbots para realizar triagens de currículos e robôs para avaliar entrevistas, identificando as emoções do candidato. Os algoritmos também têm decidido se uma pessoa poderá receber um empréstimo bancário e, até mesmo, que taxa será ofertada. Outro papel que a Inteligência Artificial tem recebido cada vez mais responsabilidade está relacionado à segurança pública. Nos Estados Unidos, por exemplo, foram instalados programas de policiamento preventivo com o objetivo de rastrear laços de pessoas com membros de gangues, delinear históricos criminais e analisar publicações em redes sociais. De acordo com os desenvolvedores desta tecnologia, é possível prever a probabilidade de uma pessoa cometer ou se tornar vítima de um crime. O reconhecimento facial aplicado em câmeras de segurança também é amplamente utilizado para auxiliar a polícia a identificar criminosos. A tecnologia já foi adotada em cidades como Quito, Nairóbi, Moscou, Detroit, Belgrado e, inclusive, no Rio de Janeiro durante o carnaval.

Problemas éticos

Apesar dos diversos benefícios que a Inteligência Artificial oferece, ela ainda está longe de ser segura e utilizada sem interesses ocultos. O escândalo da Cambridge Analytica representa um dos maiores exemplos desta falta de transparência e segurança. Em 2014, um quiz online inofensivo se espalhou entre 270 mil usuários do Facebook, resultando na exposição de dados pessoais de 87 milhões de pessoas e, por fim, na estratégia de campanha de Donald Trump. Outro exemplo de coleta de dados por meio de tecnologias de Inteligência Artificial ocorreu em 2017 com o Google. Ainda que as políticas de privacidade garantissem na teoria a segurança e proteção de informações pessoais, em 2017, a empresa foi processada em uma ação coletiva organizada na Inglaterra por haver armazenado dados de 5,4 milhões de usuários de iPhone. Semelhante ao inócuo teste online amplamente compartilhado no Facebook, outro problema ocorreu cinco anos mais tarde, em 2019, com o FaceApp, aplicativo que envelhecia rostos em selfies. As fotografias e os dados coletados serviram para realizar treinamentos de algoritmos. Em todos os casos o usuário permitiu o acesso a seus dados, porém em nenhum houve transparência em como estes dados seriam utilizados.

Os problemas éticos envolvidos nas aplicações de Inteligência Artificial, no entanto, não se restringem a critérios de segurança e transparência, mas também de neutralidade. Dependendo de como os sistemas baseados nesta tecnologia são estruturados e utilizados, podem acabar servindo como ferramenta para criar ou reforçar discriminações e, até mesmo, agir de forma ilícita sem que tenham sido explicitamente programados para isso.

Em 2016, por exemplo, a Microsoft lançou um chatbot chamado Tay. O propósito em seu desenvolvimento era servir como um amigo para adolescentes, em especial para meninas. Porém, apesar da boa intenção contida no robô, as interações recebidas acabou moldando o processo de aprendizagem do algoritmo e tornando Tay um robô defensor de incesto e admirador de Adolf Hitler. Como consequência, a empresa excluiu o chatbot em menos de 24h. Outro exemplo ocorreu há alguns meses atrás, quando o Twitter recebeu a acusação de utilizar um algoritmo racista. A denúncia se deu após usuários da rede social realizarem testes publicando imagens de homens brancos e negros em vários formatos de imagens. Após esse experimento, foi constatado que independente do formato, o algoritmo dava destaque aos homens brancos. Em nota oficial, o Twitter informou que não havia sido encontrada nenhuma evidência de viés racial em seu modelo de software e que abriria o código para que terceiros pudessem revisá-lo.

Joy Budamwini precisou colocar uma máscara branca para que seu rosto fosse detectado por um software de reconhecimento facial. (Coded Bias/Netflix)

A reprodução de racismo através da tecnologia também foi identificada em diversos aplicativos e sistemas ao serem incapazes de reconhecer o rosto de pessoas negras. Após perceber que era preciso colocar uma máscara branca para que seu rosto fosse detectado por um software de reconhecimento facial, Joy Budamwini, estudante de doutorado em Ciências da Computação do MIT, analisou outros sistemas, tais como os desenvolvidos pela IBM, Microsoft, Face++, Google. O resultado de sua análise foi que estes sistemas apresentaram menos dificuldade em reconhecer rostos masculinos do que femininos, bem como peles claras do que escuras.

Estes são alguns exemplos de casos em que faltou ética no uso da Inteligência Artificial. Porém, diversos outros casos como esse têm sido identificados nos últimos anos. Isso significa que podem acabar se repetindo e que, portanto, existe a necessidade de pensar em soluções.

Saídas

Considerando que máquinas ainda não pensam por si só, mas que necessitam ser desenvolvidas e programadas por seres humanos, entende-se que a Inteligência Artificial carrega em si os valores de que a desenvolveu. Sendo assim, o que garante que não haverá viés nos algoritmos, bem como parcialidades e interesses embutidos nestas soluções? A experiência aponta que há necessidade de uma legislação que garanta o desenvolvimento ético, responsável e neutro, bem como de diversidade no perfil de desenvolvedores para assegurar neutralidade nas tecnologias produzidas.

Frente a esta questão, o Parlamento Europeu aprovou, em 2020, um documento intitulado “Estrutura dos aspectos éticos da inteligência artificial, robótica e tecnologias relacionadas” (Framework of ethical aspects of artificial intelligence, robotics and related technologies, originalmente) estabelecendo algumas diretrizes para o uso responsável da Inteligência Artificial. Conforme os princípios estabelecidos, deve-se assegurar que a Inteligência Artificial esteja centrada pelo ser humano em sua execução e controle; seja utilizada de forma segura, transparente e responsável; salvaguarde parcialidades e discriminações; tenha o direito de ser reparada; tenha responsabilidade social e defenda a igualdade de gênero; seja sustentável; respeite a privacidade e os limites o uso de reconhecimento biométrico; e, em caso de projetos de alto risco, receba avaliação obrigatória de um organismo de supervisão competente.

A diversidade de perfis em uma equipe de desenvolvedores configura um fator relevante para salvaguardar as soluções desenvolvidas de vieses discriminatórios (Ilustração: Sandra Dionisi)

Em adição a códigos de ética, o perfil e a conduta de desenvolvedores de sistemas baseados em Inteligência Artificial representa um aspecto relevante para garantir a neutralidade e responsabilidade em seu uso. De acordo com um relatório desenvolvido pelo SAS Institute, em 2017, 92% das empresas consultadas consideram relevante oferecer treinamentos de ética para seus desenvolvedores. Destas, 63% dispõe de comitês especializados neste aspecto e responsáveis por garantir o bom uso da Inteligência Artificial. Ao mesmo tempo, tendo em conta que há a tendência de que os algoritmos reflitam os valores e os pensamentos dos responsáveis pela sua elaboração, assegurar a diversidade de perfis em uma equipe de desenvolvedores configura um fator relevante para salvaguardar as soluções desenvolvidas de vieses discriminatórios.

LEIA MAIS:

O gênero e a cor da tecnologia

As novas aplicações de Inteligência Artificial sob o ponto de vista de especialistas

Dados e algoritmos “on demand”

Quer ficar por dentro das novidades do Aprix Journal? Assine nossa newsletter semanal e receba as últimas reportagens e notícias sobre combustíveis, tecnologia e precificação diretamente em seu e-mail.

--

--