Para Construir Máquinas Verdadeiramente Inteligentes, Ensinar-lhes a Causa e o Efeito (Atualidade)

Judea Pearl, uma figura pioneira em inteligência artificial, argumenta que a IA está presa em uma rotina há décadas. Sua receita para o progresso? Ensine máquinas para entender a pergunta por quê.

A inteligência artificial deve muito de sua inteligência à Judea Pearl. Nos anos 80, ele liderou esforços que permitiam que as máquinas raciocinassem probabilisticamente. Agora ele é um dos críticos mais agudos do campo. Em seu último livro, “O Livro do Porquê: A Nova Ciência da Causa e Efeito”, ele argumenta que a inteligência artificial foi prejudicada por uma compreensão incompleta do que é realmente a inteligência.

Três décadas atrás, um dos principais desafios da pesquisa em inteligência artificial era programar máquinas para associar uma causa potencial a um conjunto de condições observáveis. Pearl descobriu como fazer isso usando um esquema chamado redes bayesianas. As redes bayesianas tornaram prático para as máquinas dizer que, dado um paciente que retornou da África com febre e dores no corpo, a explicação mais provável era a malária. Em 2011, Pearl ganhou o Prêmio Turing, a maior honra da ciência da computação, em grande parte por esse trabalho.

Mas, como Pearl percebe, o campo da IA ​​ficou atolado em associações probabilísticas. Nos dias de hoje, as manchetes falam sobre as últimas descobertas em aprendizado de máquina e redes neurais. Lemos sobre computadores que podem dominar jogos antigos e dirigir carros. Pearl está desapontada. Segundo ele, o estado da arte da inteligência artificial hoje é apenas uma versão simplificada do que as máquinas já podiam fazer há uma geração: encontrar regularidades ocultas em um grande conjunto de dados. “Todas as conquistas impressionantes da aprendizagem profunda equivalem apenas à adaptação de curvas”, disse ele recentemente.

Em seu novo livro, Pearl, agora com 81 anos, elabora uma visão de como as máquinas verdadeiramente inteligentes pensariam. A chave, ele argumenta, é substituir o raciocínio por associação com o raciocínio causal. Em vez da mera capacidade de correlacionar febre e malária, as máquinas precisam da capacidade de raciocinar que a malária causa febre. Uma vez que esse tipo de estrutura causal esteja em vigor, torna-se possível que as máquinas façam perguntas contrafactuais — indagar como as relações causais mudariam, dado algum tipo de intervenção — que Pearl considera a pedra angular do pensamento científico. Pearl também propõe uma linguagem formal para possibilitar esse tipo de pensamento — uma versão do século XXI da estrutura bayesiana que permitia às máquinas pensar de maneira probabilística.

Pearl espera que o raciocínio causal possa fornecer às máquinas inteligência em nível humano. Elas seriam capazes de se comunicar com os humanos de forma mais eficaz e até, ele explica, alcançar o status de entidades morais com capacidade de livre-arbítrio — e para o mal. Quanta Magazine sentou-se com Pearl em uma recente conferência em San Diego e depois realizou uma entrevista com ele por telefone. Uma versão editada e condensada dessas conversas segue.

Por que seu novo livro é chamado “O livro do porquê”?

Significa ser um resumo do trabalho que venho fazendo nos últimos 25 anos sobre causa e efeito, o que isso significa na vida, suas aplicações e como chegamos a respostas com perguntas inerentemente causais. Estranhamente, essas questões foram abandonadas pela ciência. Então estou aqui para compensar a negligência da ciência.

Isso é uma coisa dramática para dizer, que a ciência abandonou causa e efeito. Não é exatamente isso que tudo da ciência é sobre?

Claro, mas você não pode ver essa nobre aspiração em equações científicas. A linguagem da álgebra é simétrica: se X nos diz sobre Y,então Y nos diz sobre X. Eu estou falando sobre relações determinísticas. Não há como escrever em matemática um fato simples — por exemplo, que a próxima tempestade faz com que o barômetro diminua, e não o contrário.

Matemática não desenvolveu a linguagem assimétrica necessária para capturar o nosso entendimento de que se X causa Y que não significa que Y causa X . Parece uma coisa terrível dizer contra a ciência, eu sei. Se eu fosse dizer para minha mãe, ela me dava um tapa.

Mas a ciência é mais complacente: vendo que nos falta um cálculo para relações assimétricas, a ciência nos encoraja a criar um. E é aí que entra a matemática. Revelou-se uma grande emoção para mim ver que um cálculo simples de causalidade resolve problemas que os maiores estatísticos do nosso tempo julgam ser mal definidos ou insolúveis. E tudo isso com a facilidade e a diversão de encontrar uma prova na geometria do ensino médio.

Você fez seu nome em IA algumas décadas atrás ensinando máquinas a raciocinar probabilisticamente. Explique o que estava acontecendo na IA na época.

Os problemas que surgiram no início dos anos 80 eram de natureza preditiva ou diagnóstica. Um médico examina vários sintomas de um paciente e quer pensar na probabilidade de o paciente ter malária ou alguma outra doença. Queríamos que sistemas automáticos, sistemas especialistas, pudessem substituir o profissional — seja um médico, um explorador de minerais ou algum outro tipo de especialista remunerado. Então, nesse ponto, tive a ideia de fazer isso de maneira probabilística.

Infelizmente, os cálculos de probabilidade padrão exigiam espaço exponencial e tempo exponencial. Eu criei um esquema chamado redes bayesianas que exigia tempo polinomial e também era bastante transparente.

No entanto, em seu novo livro, você se descreve como um apóstata na comunidade de IA hoje. Em que sentido?

No sentido de que, assim que desenvolvemos ferramentas que permitiram às máquinas raciocinar com a incerteza, deixei a área para perseguir uma tarefa mais desafiadora: raciocinar com causa e efeito. Muitos dos meus colegas da IA ainda estão ocupados com a incerteza. Existem círculos de pesquisa que continuam a trabalhar no diagnóstico sem se preocupar com os aspectos causais do problema. Tudo o que eles querem é prever bem e diagnosticar bem.

Eu posso te dar um exemplo. Todo o trabalho de aprendizado de máquina que vemos hoje é conduzido no modo de diagnóstico — digamos, rotular objetos como “gato” ou “tigre”. Eles não se importam com a intervenção; eles só querem reconhecer um objeto e prever como ele vai evoluir no tempo.

Senti-me apóstata quando desenvolvi ferramentas poderosas de previsão e diagnóstico, sabendo já que esta é apenas a ponta da inteligência humana. Se quisermos que as máquinas raciocinem sobre intervenções (“E se proibirmos cigarros?”) E introspecção (“E se eu tivesse terminado o ensino médio?”), Devemos invocar modelos causais. Associações não são suficientes — e isso é um fato matemático, não uma opinião.

As pessoas estão animadas com as possibilidades da IA. Você não está?

Tanto quanto eu olho para o que está sendo feito com o aprendizado profundo, vejo que todos estão presos no nível das associações. Ajuste de curva. Isso parece um sacrilégio, dizer que todas as conquistas impressionantes da aprendizagem profunda equivalem apenas a uma curva de dados. Do ponto de vista da hierarquia matemática, não importa o quão habilmente você manipule os dados e o que você lê nos dados quando você os manipula, ainda é um exercício de ajuste de curvas, ainda que complexo e não trivial.

Do jeito que você fala sobre ajuste de curva, parece que você não está muito impressionado com o aprendizado de máquina.

Não, estou muito impressionado, porque não esperávamos que tantos problemas pudessem ser resolvidos por um simples ajuste de curva. Acontece que eles podem. Mas eu estou perguntando sobre o futuro — o que vem depois? Você pode ter um cientista robô que planeje um experimento e encontre novas respostas para questões científicas pendentes? Esse é o próximo passo. Também queremos conduzir alguma comunicação com uma máquina que seja significativa, e significativa significa corresponder à nossa intuição. Se você privar o robô da sua intuição de causa e efeito, você nunca se comunicará de maneira significativa. Os robôs não poderiam dizer “Eu deveria ter feito melhor”, como você e eu fazemos. E assim perdemos um importante canal de comunicação.

Quais são as perspectivas de ter máquinas que compartilhem nossa intuição sobre causa e efeito?

Temos que equipar máquinas com um modelo do ambiente. Se uma máquina não tem um modelo de realidade, você não pode esperar que a máquina se comporte de maneira inteligente nessa realidade. O primeiro passo, que ocorrerá em talvez 10 anos, é que os modelos conceituais da realidade serão programados por humanos.

O próximo passo será que as máquinas irão postular tais modelos por conta própria e irão verificar e refiná-las com base em evidências empíricas. Foi o que aconteceu com a ciência; Começamos com um modelo geocêntrico, com círculos e epiciclos, e acabamos com um modelo heliocêntrico com suas elipses.

Os robôs também se comunicarão entre si e traduzirão esse mundo hipotético, esse mundo selvagem, de modelos metafóricos.

Quando você compartilha essas ideias com pessoas que trabalham com IA hoje, como elas reagem?

A IA está atualmente dividida. Primeiro, há aqueles que estão intoxicados pelo sucesso do aprendizado de máquina e aprendizagem profunda e redes neurais. Eles não entendem do que estou falando. Eles querem continuar se encaixando nas curvas. Mas quando você fala com pessoas que fizeram algum trabalho em IA fora do aprendizado estatístico, elas o obtêm imediatamente. Eu li vários artigos escritos nos últimos dois meses sobre as limitações do aprendizado de máquina.

Você está sugerindo que há uma tendência se desenvolvendo longe do aprendizado de máquina?

Não é uma tendência, mas um esforço sério de busca da alma que envolve perguntar: para onde estamos indo? Qual é o próximo passo?

Essa foi a última coisa que eu queria te perguntar.

Fico feliz que você não tenha me perguntado sobre o livre-arbítrio.

Nesse caso, o que você acha do livre arbítrio?

Nós vamos ter robôs com livre arbítrio, absolutamente. Temos que entender como programá-los e o que ganhamos com isso. Por alguma razão, a evolução descobriu que essa sensação de livre-arbítrio é computacionalmente desejável.

De que maneira?

Você tem a sensação do livre arbítrio; a evolução nos equipou com essa sensação. Evidentemente, serve alguma função computacional.

Será óbvio quando os robôs tiverem livre arbítrio?

Acho que a primeira evidência será se os robôs começarem a se comunicar de forma contra-factual, como “Você deveria ter feito melhor”. Se uma equipe de robôs jogando futebol começar a se comunicar nesse idioma, saberemos que eles têm uma sensação de livre arbítrio. “Você deveria ter me passado a bola — eu estava esperando por você e você não tinha!” “Você deveria ter” significa que você poderia ter controlado quaisquer impulsos que fizessem o que você fez, e você não fez. Então o primeiro sinal será comunicação; o próximo será melhor futebol.

Agora que você trouxe o livre-arbítrio, acho que deveria perguntar-lhe sobre a capacidade do mal, que geralmente consideramos ser contingente à capacidade de fazer escolhas. O que é mal?

É a crença de que sua ganância ou queixa substitui todas as normas padrão da sociedade. Por exemplo, uma pessoa tem algo parecido com um módulo de software que diz: “Você está com fome e, portanto, tem permissão para agir para satisfazer sua ganância ou queixa.” Mas você tem outros módulos de software que o instruem a seguir as leis padrão da sociedade. Um deles é chamado de compaixão. Quando você eleva sua mágoa acima daquelas normas universais da sociedade, isso é mal.

Então, como saberemos quando a IA é capaz de cometer o mal?

Quando é óbvio para nós que existem componentes de software que o robô ignora, ignora consistentemente. Quando parece que o robô segue o conselho de alguns componentes de software e não de outros, quando o robô ignora o conselho de outros componentes que estão mantendo normas de comportamento que foram programados neles ou que devem estar lá com base no aprendizado anterior . E o robô pára de segui-los.