O que é Inteligência Artificial Explicável (XAI)? Como isso afeta seu trabalho?

Traduzimos e comentamos partes do artigo de Seyi Fabode. O link original vai aqui.

A imprensa e alguns líderes tecnológicos estão tentando nos deixar com medo da Inteligência Artificial (AI). Mesmo o empresário mais ousado do nosso tempo, Elon Musk (da TESLA), acha que devemos ter um medo mortal. Eu acredito que ele está exagerando porque ainda há um longo caminho a percorrer antes de chegar à Super Inteligência Artificial (ASI). E mesmo a ASI não é uma proposição assustadora.

Há apenas três dias atrás, por exemplo, uma suposta ferramenta de reconhecimento de imagem sugeriu erroneamente que eu tinha no meu jardim cogumelos, quando era cocô de coelhos. Como eu sabia? Demorou menos de um minuto para alguém em um dos meus grupos do iMessage confirmar o que era. Então, por que o medo dessa tecnologia?

Onde estamos com AI?

Em 1954, o Prof. John McCarthy definiu o assunto da Inteligência Artificial (IA) como “ciência e engenharia de fazer máquinas inteligentes, especialmente programas de computador inteligentes”.

Como todas as tecnologias de uso geral, a AI passará do estado experimental atual para ser incorporada no tecido da maioria dos negócios. Todas as histórias, imprensa e ficção em torno das capacidades da AI sugerem que estamos mais adiante do que estamos, no desenvolvimento dessa tecnologia. Mas ainda estamos no estágio de Inteligência Estreita Artificial.

A AI faz coisas e faz bem, como a Siri do seu Iphone e o piloto automático que controla o avião por cerca de 90% do tempo de seu vôo. E, apesar do que a imprensa pode fazer você pensar, o supercomputador AlphaGo* só derrotou Lee Sedol com base na ajuda de 100 cientistas e uma série de máquinas distribuídas.

Nota: O Google DeepMind Challenge Match foi um jogo de cinco partidas entre o 18 vezes campeão mundial Lee Sedol e AlphaGo, um programa de computador Go . Teve lugar em Seul, Coréia do Sul, em março de 2016. AlphaGo ganhou todos, exceto a quarta partida; todas as outras foram ganhas por desistência . A partida foi comparada com a batalha histórica de xadrez entre Deep Blue e Garry Kasparov em 1997.

AI Explicável e como ela aumenta os empregos

Nós temos um longo caminho antes que as máquinas realmente ganhem consciência, sentido e sensação como seres humanos. Sim, hoje temos companhias de seguros que usam aprendizado de máquina para automatizar e melhorar / personalizar o suporte ao cliente; empresas comerciais otimizando seus negócios com redes neurais e AI para a automação do diagnóstico. As previsões sugerem que os robôs inteligentes assumirão completamente os trabalhos manuais; o AI mais inteligente assumirá as tarefas analíticas (e posteriormente os papéis) e, eventualmente, a Super Inteligência Artificial assumirá tudo. E alguns trabalhos já estão sendo perdidos para máquinas inteligentes. Mas o medo supera o impacto real. Por que esse é o caso?

O medo vem da natureza da caixa preta do processo de AI subjacente.

Nos termos mais simples, os dados são introduzidos em um modelo para treinar o modelo. O modelo então aprende padrões dos dados de treinamento(através de uma Learning Machine, máquina de aprendizado) e usa isso para prever padrões em outros dados, ou faz recomendações com base na aprendizagem. O pensamento subjacente por trás da decisão ou recomendação que o sistema fornece é envolto em mistério. É o que você poderia chamar de AI inexplicável.

Há uma falta de transparência que é desconfortável para o usuário médio. Em alguns casos em que as decisões são situações de vida ou morte, por exemplo, onde uma IA recomenda cirurgia em vez de quimioterapia, a recomendação pode ser contra-intuitiva e assustadora. Aqui é onde estamos com nossas ferramentas de AI hoje. Eles podem nos dizer coisas, mas não podem nos dizer o porquê atrás dessas coisas.

Agora, a DARPA — Defense Advanced Research Projects Agency — a agência americana que há 50 anos faz investimentos em tecnologias revolucionárias, visando principalmente a segurança nacional americana — está propondo um sistema que está sendo chamado de Inteligência Artificial Explicável (XAI).

Nota: “A inteligência explicável — especialmente a aprendizagem de máquina explicável — será essencial para que os futuros operadores entendam, confie e gerenciem de forma adequada uma geração emergente de parceiros de máquinas artificialmente inteligentes. “

O XAI fornece um modelo explicável e uma interface de explicação que tira o mistério de como a AI chegou às suas decisões e oferece algum nível de confiança ao usuário. Continuando o exemplo médico, se a IA recomendar cirurgia em vez de quimioterapia, o médico entende porque. Esse conforto permite a propriedade do usuário na implementação final das recomendações da AI. Em vez de ser a mão que assina os papéis de tratamento, o médico pode explicar à família por que a recomendação é acompanhar a cirurgia.

‘Os novos sistemas de aprendizagem de máquina (Machine Learning) terão a capacidade de explicar sua lógica, caracterizar seus pontos fortes e fracos, e transmitir uma compreensão de como eles se comportarão no futuro”

O que nós tememos e o que é desejável

Nossos maiores temores sobre a IA é que, quando pensamos no futuro do trabalho, vemos muito poucos humanos envolvidos. Ferramentas como a AI Explicável (XAI) podem dissipar esses medos (até certo ponto), movendo nosso uso da IA ​​com a autonomia das máquinas para o aumento dos trabalhadores humanos. Enquanto o projeto XAI está focando em análise de inteligência e sistemas autônomos (processos de interesse) e na aprendizagem de classificação e reforço (duas abordagens de aprendizado de máquina), seu produto final será um conjunto de ferramentas que outros pesquisadores e tecnólogos podem modificar, otimizar e compartilhar com a comunidade para permitir o crescimento de uma AI amigável para usuários.

De acordo com o livro Creative Confidence (Confiança Criativa) dos irmãos Kelley, com cada inovação vem a necessidade de torná-la factível, viável e desejável.

Estamos aprendendo que a tecnologia da IA é factível (tecnicamente). Também estamos a meio caminho da viabilidade para muitos usos da inteligência artificial, mas já temos bastante exemplos de seu uso com valor agregado em mãos agora. Onde a gente está falhando é em torná-la desejável para as pessoas que estão sendo levadas a acreditar que a IA vai colocá-los na fila de desemprego.

A Inteligência Artificial Explicável vai começar a nos levar a um lugar onde empregados podem ter seus papéis aumentados em vez de serem substituídos pela tecnologia; na direção de um estado futuro desejável, o que está destinado a ser a próxima tecnologia de aplicação geral da nossa era.

Consulta complementar da equipe Templo: DARPA

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.