Como evitar os vieses nos dados usados para treinar um algoritmo de inteligência artificial (IA) ?

Pierre Guillou
2 min readMay 2, 2018

--

Fonte da imagem : “Machine Bias

Este post faz parte de uma série de publicações relacionadas à palestra de Pierre Guillou do 26/04/2018 em Brasília sobre a Inteligência Artificial, sua realidade e seu impacte na democracia (slides, post precedente : “Como treinar um algoritmo de inteligência artificial (IA) na área do direito ?”, post seguinte : “Quais são os impactos da inteligência artificial (IA) no mundo do trabalho ?”).

Vieses nos dados

Há um problema muito preocupante, particularmente no caso de uso de dados na área judiciária : os vieses nos dados. Em 2016, a avaliação do desempenho de um software “inteligente” COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) ilustrou bem isso.

Caso dos algoritmos de avaliação de “risco reincidência”

COMPAS é um algoritmo de avaliação de “risco reincidência” vendido por uma empresa, seja um algoritmo que calcula uma probabilidade de um réu cometer mais crimes no futuro. Na verdade, cada vez mais tribunais de justiça nos EUA usam esse tipo de software para ajudá-las na avaliação de riscos no que diz respeito ao réu (risco reincidência mas também, risco de comparecer ou não no julgamento…).

No entanto, a avaliação do desempenho deste software revelou que suas probabilidades eram muitas vezes erradas por causa dos vieses nos dados usados para o seu treinamento (vieses na coleta de dados, por causa dos erros nos casos passados ou dos preconceitos raciais, sociais ou de gênero…).

IA sob o controle do ser humana e transparência

Esse exemplo revela a importância de guardar a IA sob o controle do ser humano na decisão final. Mostra também a necessidade de transparência nos dados usados no treinamento do algoritmo e na arquitetura usada de rede neural profunda.

Como evitar os vieses nos dados

Finalmente, isso levanta a questão de como evitar ou pelo menos reduzir os vieses nos dados usados para treinar um algoritmo de IA.

Esse é um campo de pesquisa que está apenas começando, mas que já é um dos pontos de atenção de vários governos, como o da Grã-Bretanha : “UK report urges action to combat AI bias” (TechCrunch,16 abril de 2018).

Fonte da imagem : “UK report urges action to combat AI bias

--

--