Acesse a Nota Técnica na íntegra e conheça os dados já mapeados

Coding Rights lança Nota Técnica sobre impactos da Inteligência Artificial no setor público do Brasil

Coding Rights
Coding Rights
6 min readAug 11, 2022

--

Documento é uma contribuição para a Comissão de Juristas do Senado que debate o tema

De 45 entes públicos federais consultados até outubro de 2021 via Lei de Acesso à Informação, 23 declararam fazer uso de sistemas de inteligência artificial para desenvolvimento de seus trabalhos e funções, incluindo a implementação das políticas públicas. Tudo isso sem a existência de um marco legal abrangente.

Essa foi uma das conclusões apontadas na Nota Técnica enviada pela Coding Rights para a consulta pública da Comissão de Juristas do Senado Federal (CJSUBIA), responsável por estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. Em maio deste ano já havíamos participado do ciclo de audiências públicas organizado pela Comissão, participando do painel sobre “vieses e discriminação”, agora, nossa nossa técnica focou especificamente nos eixos de trabalho definidos pela consulta pública como “Impactos da Inteligência Artificial” e “Direitos e Deveres”.

Nossos dados preliminares já indicam que o uso de algum tipo de inteligência artificial pelo setor público no Brasil, ainda que em estágio piloto, é uma realidade. Mas quase nada se sabe sobre a necessidade real desses sistemas, não existem análises de impacto, ou qualquer dados que comprovem alguma eficiência na sua implementação, além de ser comum que as partes envolvidas tentem se eximir de eventuais responsabilidades.

O quadro a seguir ilustra cada órgão consultado e a resposta autodeclarada:

Fonte: Nota Técnica da Coding Rights para a consulta pública da CJSUBIA

Desde 2018, a Coding Rights vem desempenhando um extenso trabalho de pesquisa, em parceria com outras especialistas em inteligência artificial e direitos humanos sobre os impactos da I.A na América Latina e no Brasil. Nossa Nota Técnica foi escrita com base nos resultados deste estudo, liderado por Joana Varon e Paz Peña, que segue em execução e tem parte de seus resultados consolidados no website “Not my A.I.”.

O intuito da plataforma é difundir os acúmulos já existentes acerca dos impactos do aprendizado de máquina e estimular os debates entre organizações engajadas na promoção da justiça social, particularmente em temas que visam assegurar e avançar em direitos de equidade de gênero e suas interseccionalidade de raça, classe e sexualidade. O que se espera é que novas tecnologias não sejam usadas no sentido de automatizar desigualdades históricas.

Infelizmente, isso já está ocorrendo. Governos de toda a América Latina estão implementando ou testando uma ampla variedade de sistemas de Inteligência Artificial na prestação de serviços públicos que reproduzem preconceito e discriminação. Algumas vezes com o apoio de empresas dos EUA que usam a região como um laboratório de ideias e de aplicação de tecnologias que não ousam testar em seus países de origem. Até abril de 2021 a plataforma já havia mapeado 24 casos no Chile, Brasil, Argentina, Colômbia e Uruguai, que foram classificados em cinco categorias: Educação; Sistema Judicial; Policiamento; Saúde Pública e Benefícios Sociais.

Leia mais aqui: https://notmy.ai/mapping-of-projects

Necessidade de mudança de paradigma para longe da lógica irresponsável dos tech bros que pregam o “move fast and break things

Sistemas de I.A. baseiam-se em modelos que são representações universalizadas e simplificações abstratas de realidades complexas nos quais muitas informações são deixadas de fora por decisão de seus criadores. Como aponta Cathy O’Neil em seu livro “Weapons of Math Destruction”: “[M]odelos, apesar de sua reputação de imparcialidade, refletem objetivos e ideologia. […] Nossos próprios valores e desejos influenciam nossas escolhas, desde os dados que escolhemos coletar até as perguntas que fazemos. Modelos são opiniões incorporadas na matemática”.

Consequentemente, algoritmos são criações humanas sujeitas a falhas. Os seres humanos estão sempre presentes na construção de sistemas automatizados de tomada de decisão: são eles que determinam os objetivos e usos dos sistemas, que definem quais dados devem ser coletados para tais objetivos e usos, que coletam esses dados, que decidem como capacitar as pessoas que usam esses sistemas, avaliam o desempenho do software e, em última análise, agem segundo as decisões e avaliações feitas pelos sistemas.

E antes mesmo de rodar algorítmos, preconceito e descriminação pode estar presente na construção do banco de dados. Conforme afirma Tendayi Achiume, Relatora Especial sobre formas contemporâneas de racismo, discriminação racial, xenofobia e intolerância relacionadas, no relatório “Racial discrimination and emerging digital technologies”, os bancos de dados usados nesses sistemas são resultado do design humano e podem ser tendenciosos de várias formas, potencialmente levando — intencionalmente ou não — à discriminação ou à exclusão de certas populações, especialmente minorias em questões de identidade de raça, etnia, religião e gênero.

Diante desses problemas, deve-se reconhecer que parte da comunidade da tecnologia tem feito várias tentativas para definir matematicamente “justiça” e, assim, atender a um padrão demonstrável sobre o tema. Da mesma forma, várias organizações, privadas e públicas, têm empreendido esforços para estabelecer padrões éticos para a I.A. A visualização de dados Principled Artificial Intelligence”, publicada por pesquisadoras do Berkman Klein, mostra a variedade de quadros éticos e baseados em direitos humanos que surgiram em diferentes setores a partir de 2016 com o objetivo de orientar o desenvolvimento e o uso de sistemas de I.A. O estudo revela “um consenso crescente em torno de oito tendências temáticas principais: privacidade, responsabilização, proteção e segurança, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos”. No entanto, como podemos observar desta lista, nenhum desses consensos é impulsionado por princípios de justiça social. Talvez, em vez de perguntar como desenvolver e implantar um sistema de I.A., deveríamos antes perguntar “por que o construir?”, “é realmente necessário?”, “a pedido de quem?”, “quem se beneficia dele?”, “quem é prejudicado?” com a implantação de um determinado sistema de I.A.? Deveria tal sistema sequer ser desenvolvido e implantado?

Acreditamos que seja necessário tomar um passo atrás, e repensar a ideologia dominante do “move fast and break things”, que foi imposta pelas empresas do Vale do Silício e tem tido consequências nefastas tanto para a justiça socioambiental, como para democracias de todo o mundo. Andar com cautela e prever riscos para evitar danos tem se mostrado uma visão mais coerente com a defesa de nossos direitos fundamentais. Ou seja, enquanto não se provar que não está causando danos, principalmente se os alvos dos sistemas propostos são comunidades marginalizadas, muito provavelmente danos estão sendo causados e desigualdades históricas estão sendo automatizadas.

Para tal, com base em uma ampla revisão bibliográfica e em uma análise fundamentada em casos mapeados na América Latina, o que se segue é um esquema analítico que tem sido testada em uma série de reuniões e oficinas do projeto notmy.ai, realizadas com organizações preocupadas com a justiça social e equidade de gênero em suas interseccionalidades. O quadro analítico abaixo está em constante evolução e visa ultrapassar os discursos rasos de uma I.A. ética ou centrada em pessoas (que pessoas?) e busque ser uma estrutura holística que considere as relações de poder a fim de questionar a ideia de implantar sistemas de I.A. em vários campos do setor público.

Esquema desenvolvido por Joana Varon e Paz Peña e Clarote para a plataforma notmy.ai

Esperamos que esse esquema analítico também sirva de inspiração para a Comissão de Juristas do Senado na elaboração de minuta de Projetos de Lei substitutivo que verse sobre o uso de I.A no Brasil e seus princípios, particularmente no que tange os impactos da inteligência artificial, direitos e deveres.

Para ler a nota técnica na íntegra clica aqui!

E vale continuar de olho no trabalho da Comissão de Juristas, atualizações de prazos e agenda de trabalho são divulgadas aqui.

Assista também nossa participação em audiência pública no Senado.

--

--