Machine Learning e os ataques adversariais

Fernando Aragão
TED/UNEB
Published in
2 min readDec 22, 2020

Em manifesto publicado por Matteo Pasquinelli e Vladan Joler, propõe-se um diagrama de aprendizado de máquina (machine learning) denominado por eles de Nooscópio (uma cartografia dos limites da inteligência artificial para provocar as ciências humanas e da computação), com objetivo de desafmistificar questões sobre inteligência artificial, ilustrando o funcionamento e as falhas do machine learning.

Diagrama de erros, viéses e limitações do aprendizado de máquina.

A partir dessa abordagem, destaco aqui às discussões presentes no tópico “Inteligência Adversarial Vs. Inteligência Artificial”, no qual os autores chamam a atenção para a necessidade de compreender o sujeito como estruturador do modelo estatístico, e não o inverso. Esse entendimento norteia uma investigação crítica a respeito da inteligência artificial que analisa como ela quebra e como o sujeito se rebela contra o controle normativo da tecnologia. Nesse sentido, o estudo aponta para a observação de ataques hackers como forma de sondar os limites da IA.

Um exemplo desse tipo de prática diz respeito à vontade humana de tornar-se ininteligível à inteligência artificial através de técnicas de ofuscação facial. O estudo retrata o experimento do pesquisador de IA Adam Harvey que, ao inventar um tecido de camuflagem chamado HyperFace, engana algoritmos de visão de computador para que vejam vários rostos humanos onde não há nenhum, gerando o questionamento acerca do que constituiria uma face para um olho humano e para um algoritmo de visão computacional.

Ao explorar a lacuna cognitiva entre a percepção humana e a da máquina, é possível introduzir o campo de ataques adversariais, que exploram pontos fracos no modelo estatístico de uma rede neural para enganá-lo e fazê-lo perceber algo que não existe. Outro exemplo é a maneira como objetos podem desencaminhar carros autônomos pelo fato de que as máquinas que operam os carros não conhecerem os elementos em questão. Esse efeito é obtido também pela engenharia reversa do modelo estatístico ou poluindo o conjunto de dados de treinamento.

O ataque adversarial aponta para uma vulnerabilidade matemática comum a todos os modelos de machine learning: um exemplo gerado para um modelo é frequentemente classificado erroneamente por outros modelos, mesmo possuindo arquiteturas diferentes ou sendo treinados em conjuntos desconexos. Revela ainda que o limite lógico do machine learning é o sujeito indisciplinado ou evento anômalo que escapa à classificação e ao controle.

Para acessar o documento completo, acesse:

https://lavits.org/o-manifesto-nooscopio-inteligencia-artificial-como-instrumento-de-extrativismo-do-conhecimento/?lang=pt

--

--