Como um pioneiro do aprendizado de máquina tornou-se um dos críticos mais ferrenhos da área

Judea Pearl ajudou a inteligência artificial a ganhar maior domínio da probabilidade, mas lamenta que ela ainda não possa computar causa e efeito

Bruna Thalenberg
Tecs USP
8 min readJun 1, 2018

--

[Esta entrevista, por Kevin Hartnett, foi publicada originalmente em The Atlantic em 19/05/2018, e traduzida pela equipe do Tecs em 30/05/2018]

Judea Pearl, um dos pioneiros da IA nos anos 1980, tornou-se um dos críticos mais ferrenhos da área.

A inteligência artifical deve muito de sua inteligência a Judea Pearl. Nos anos 1980, ele liderou os esforços que permitiram às máquinas a raciocinar probabilisticamente. Agora ele é um dos críticos mais ferrenhos do campo. Em seu último livro, The Book of Why: The New Science of Cause and Effect, ele argumenta que a inteligência artificial tornou-se deficiente por um entendimento incompleto de o que inteligência realmente é.

Três décadas atrás, um desafio primordial na pesquisa de inteligência artifical era programar máquinas para que associassem uma possível causa a um conjunto de condições observáveis. Pearl descobriu como fazer isso utilizando-se de um sistema chamado redes bayesianas. Essas redes permitiram que as máquinas dissessem, dado um paciente que retornou da África com febre e dores no corpo, que a explicação mais provável era malária. Em 2011, Pearl recebeu o Prêmio Turing, a honraria mais alta da ciência da computação, em grande parte por esse trabalho.

Mas, na visão de Pearl, o campo de IA ficou preso nas associações probabilísticas. Atualmente, as manchetes anunciam as últimas descobertas do aprendizado de máquina e das redes neurais. Nós lemos sobre computadores capazes de dominar jogos antigos e dirigir carros. Como ele vê, o estado da arte na inteligência artificial hoje é meramente uma versão melhorada do que as máquinas já podiam fazer uma geração atrás: encontrar padrões escondidos em um grande conjunto de dados. “Todos os gandes feitos de deep learning são apenas ajuste de curvas”, ele disse recentemente.

Em seu novo livro, Pearl, atualmente com 81 anos, elabora uma visão de como máquinas realmente inteligentes pensariam. O ponto central, ele argumenta, é substituir o raciocínio por associação pelo raciocínio causal. Ao invés da mera habilidade de correlacionar febre e malária, as máquinas precisam da capacidade de raciocinar que malária causa febre. Uma vez que esse modelo seja implementado, será possível que máquinas façam perguntas contrafactuais — ou seja, perguntar como as relações causais mudariam dada determinada intervenção — o que Pearl vê como o alicerce do pensamento científico. Pearl também propõe uma linguagem formal para tornar isso possível — uma versão do século 21 do modelo bayesiano que permitiu que máquinas pensassem probabilisticamente.

Pearl espera que o raciocínio causam ofereça inteligência de nível humano às máquinas. Elas seriam capazes de comunicar-se com humanos mais efetivamente e até obter status de entidades morais com capacidade de livre arbítrio — para o bem ou para o mal, ele explica. A Quanta Magazine sentou-se para conversar com Pearl recentemente em uma conferência em San Diego e posteriormente deu seguimento à entrevista por telefone. Uma versão editada e condensada dessa conversa está abaixo.

Kevin Hartnett: Por que seu novo livro é chamado “O livro do porquê”?

Judea Pearl: Ele é pensado para ser um condensado do trabalho que tenho feito nos últimos 25 anos sobre causa e efeito, qual seu significado na vida das pessoas, suas aplicações, e como podemos buscar respostas para perguntas que são inerentemente causais. Curiosamente, essas perguntam foram abandonadas pela ciência. Então estou aqui para compensar essa negligência.

Hartnett: Essa afirmação é um tanto drástica, de que a ciência abandonou as relações de causa e efeito. A ciência não é justamente sobre isso?

Pearl: Claro, mas você não consegue ver essa nobre aspiração nas equações científicas. A linguagem da álebra é simétrica: se x diz algo sobre y, então y diz algo sobre x. Estou falando sobre relações determinísticas. Não há uma forma de escrever matematicamente um fato simples — por exemplo, que a tempestade que vem vindo causa uma baixa no barômetro, e não o inverso.

A matemática não desenvolveu a linguagem assimétrica necessária para capturar nosso entendimento de que se x causa y, isso não significa que y causa x. Parece algo horrível de se dizer sobre a ciência, eu sei. Se eu disesse isso para a minha mãe, ela me daria uns tabefes.

Mas a ciência é mais capaz de perdoar: notando que não temos um cálculo para relações assimétricas, ela nos estimula a criar um. E é aí que entra a matemática. Tornou-se uma grande diversão para mim ver que um simples cálculo da causação resolve problemas que os grandes estatísticos do nosso tempo afirmaram ser mal-definidos ou irresolvíveis. E tudo isso com a facilidade e o divertimento de fazer uma demonstração de geometria do Ensino Médio.

Hartnett: Você fez seu nome em IA algumas décadas atrás ao ensinar as máquinas a pensar probabilisticamente. Explique o que estava acontecendo em IA naquele momento.

Pearl: Os problemas que surgiram no começo dos anos 1980 eram de natureza preditiva ou diagnóstica. Um médico olha para uma série de sintomas de um pacience e quer determinar a probabilidade de que ele tenha malária ou outra doença. Queríamos sistemas automáticos, especializados, que fossem capazes de substituir o profissional — fose um médico, um geólogo, ou qualquer tipo de expert. Então, naquele momento, tive a ideia de fazer isso probabilisticamente.

Infelizmente, os cálculos probabilísticos padrão requeriam espaço e tempo exponenciais. Eu pensei em um modelo chamado redes bayesianas que requeria tempo polinomial e era relativamente transparente.

Hartnett: Ainda assim, em seu novo livro, você se descreve como um apóstata na comunidade de IA atualmente. Em que sentido?

Pearl: No sentido de que assim que desenvolvemos ferramentas que permitiam às máquinas raciocinar sobre a incerteza, eu saí de campo para realizar uma tarefa mais desafiadora: raciocinar sobre causa e efeito. Muitos dos meus colegas em IA ainda estão ocupados com a incerteza. Há grupos de pesquisa que continuam trabalhando em diagnósticos sem se preocupar com os aspectos causais do problema. Eles só querem predizer e diagnosticar bem.

Posso dar um exemplo. Todo o trabalho de aprendizado de máquina que vemos hoje é conduzido de maneira diagnóstica — digamos, etiquetar imagens como “gatos” ou “tigres”. Eles não ligam para a intervenção: querem apenas reconhecer um objeto e predizer como ele vai evoluir com o tempo.

Eu me senti como um apóstata quando desenvolvi ferramentar poderosas para a predição e diagnóstico sabendo que eram apenas a ponta do conhecimento humano. Se queremos que máquinas raciocinem sobre intervenções (“E se baníssemos os cigarros?”) e introspecção (“E se eu tivesse terminado o Ensino Médio?”), precisamos evocar modelos causais. Associações não são suficientes — e isso é um fato matemático, não uma opinião.

Hartnett: As pessoas estão excitadas sobre as possibilidades de IA. Você não?

Pearl: Por mais que eu olhe para o que está sendo feito com deep learning, eu vejo que está tudo preso no nível das associações. Ajuste de curvas. Pode soar como sacrilégio dizer que todos as grandes conquistas de deep learning resumem-se a ajustar uma curva aos dados. Do ponto de vista da hierarquia matemática, não importa o quão bem você manipule os dados e o que você leia neles após manipulá-los, ainda é um exercício de ajuste de curvas, ainda que complexo e não trivial.

Hartnett: Do jeito que você fala sobre ajuste de curvas, parece que não está muito impressionado com o aprendizado de máquina.

Pearl: Não, estou muito impressionado, porque não esperávamos que tantos problemas pudessem ser resolvidos com simples ajustes de curvas. No fim das contas, eles podem. Mas estou perguntando sobre o futuro — e depois? Poderemos ter um robô cientista capaz de planejar um experimento e encontrar novas respostas para questões científicas em aberto? Esse é o próximo passo. Também queremos conduzir alguma comunicação com as máquinas que seja significativa, e significativa no sentido de que seja compatível com nossa intuição. Se você privar o robô de sua intuição sobre causa e efeito, você nunca vai ser capaz de se comunicar significativamente. Os robôs não poderiam dizer “eu poderia ter feito melhor”, como eu e você podemos. E assim perdemos um canal importante da comunicação.

Hartnett: Quais são os prospectos para máquinas que compartilhem nossas intuições sobre causa e efeito?

Pearl: Temos que equipar as máquinas com um modelo do ambiente. Se uma máquina não tem um modelo da realidade, você não pode esperar que ela se comporte de maneira inteligente nessa realidade. O primeiro passo, que provavelmente será feito dentro de dez anos, são esses modelos conceituais da realidade que serão programados por humanos.

O próximo passo será que as máquinas possam postular esses modelos sozinhas, verificá-los e refiná-los com base em evidências empíricas. Isso éo que aconteceu com a ciência; começamos com um modelo geocêntrico, com círculos e epiciclos, e terminamos com um modelo heliocêntrico com elipses.

Os robôs, também, irão se comunicar entre si e vão traduzir esse mundo hipotético, esse mundo selvagem, de modelos metafóricos.

Hartnett: Quando você compartilha essas ideias com as pessoas que trabalham em IA, como elas reagem?

Pearl: A IA está dividida nesse momento. De um lado, há os que estão intoxicados pelo sucesso do aprendizado de máquina e do deep lerning e das redes neurais. Eles não entendem o que eu estou falando. Eles querem continuar ajustando curvas. Mas quando você conversa com pessoas que desenvolveram algum trabalho em IA fora do aprendizado estatístico, eles entendem imediatamente. Eu li diversos artigos nos últimos meses sobre as limitações do aprendizado de máquina.

Hartnett: Você está sugerindo que há uma tendência que está se desenvolvendo separada do aprendizado de máquina?

Pearl: Não uma tendência, mas um esforço sério e introspectivo que envolve perguntar: Aonde estamos indo? Qual o próximo passo?

Hartnett: Essa era a última coisa que gostaria de lhe perguntar.

Pearl: Estou feliz que você não me perguntou sobre livre arbítrio.

Hartnett: Nesse caso, o que você pensa sobre livre arbítrio?

Pearl: Teremos robôs com livre arbítrio, com certeza. Precisamos entender como programá-los e o que iremos ganhar com isso. Por algum motivo, a evolução julgou essa sensação de liberdade como computacionalmente desejável.

Hartnett: De que maneira?

Pearl: Você tem a sensação de livre arbítrio; a evolução que nos equipou com ela. Evidentemente, ela serve a alguma função computacional.

Hartnett: Será óbvio quando os robôs tiverem livre arbítrio?

Pearl: Eu acho que a primeira evidência será se robôs começaram a se comunicar de maneira contrafactual, como “você deveria ter feito isso melhor”. Se um time de robôs jogando futebol começar a se comunicar dessa forma, saberemos que eles têm a sensação de livre arbítrio. “Você deveria ter me passado a bola — estava esperando por isso e você não o fez!”. “Você deveria” significa que você poderia ter controlado quaisquer instintos que o levaram a fazer o que você fez, e você não os controlou. Então o primeiro sinal será a comunicação; o seguinte será um futebol melhor.

Hartnett: Agora que você levantou o assunto do livre arbítrio, acho que eu deveria perguntar o que você pensa sobre a capacidade para o mal, que geralmente pensamos como associada à habilidade de fazer escolhas. O que é o mal?

Pearl: É a crença de que sua ganância ou aflição ultrapassa todas as normas padrão da sociedade. Por exmeplo, uma pessoa tem algo semelhante a um módulo de software que diz “você está com fome, portanto você tem permissão para agir de maneira a satisfazer sua ganância ou aflição”. Mas você tem outros módulos que lhe orientam a seguir as normas padrão da sociedade. Um deles é chamado de compaixão. Quando a sua aflição é mais importante do que todas as normas universais da sociedade, isso é o mal.

Hartnett: Então como saberemos quando a IA é capaz de cometer o mal?

Pearl: Quando for óbvio para nós que há componentes de software que os robôs ignoram, consistemente. Quando parecer que o robô segue orientações de um componente de software e não de outros, quando ele ignorar orientações de componentes que mantêm as normas de comportamento que foram programadas para ele ou que esperemos que estejam lá com base em seu aprendizado passado. E o robô parar de segui-las.

--

--