Engenheiros de IA Devem Abrir Seus Designs Para o Controle Democrático

Quando se trata de I.A. , temos que manter os humanos informados.

Caio de Castro
Tecs USP
5 min readJun 14, 2018

--

[Esse artigo é uma tradução feito pela equipe do Tecs USP em 14/06/2018 e foi originalmente publicado por Joi Ito e pela ACLU.]

Joi Ito — Diretor do MIT Media Lab
2 de Abril de 2018 | 11:00 AM

Em muitas maneiras, os problemas mais urgentes de nossa sociedade — desigualdade de renda crescente, problemas de saúde crônicos e mudanças climáticas- são resultantes de ganhos dramáticos de produtividade que nós atingimos com a ciência e a tecnologia. A internet, inteligência artificial, engenharia genética, cripto moedas, e outras tecnologias estão nos fornecendo cada vez mais ferramentas para interagir com nosso mundo.

Mas há um custo.

Nós só estamos nos atentando agora para muitos dos impactos que essas tecnologias tem, nos indivíduos e na sociedade. Podemos, por exemplo, os efeitos diretos da inteligência artificial e do udo de algoritmos em nossas vidas, seja através dos celulares em nossos bolsos ou das Alexas em nossas bancadas. IAs estão tomando decisões para juízes sobre o risco que um acusado em algum crime possui de violar sua liberdade condicional enquanto aguarda julgamento, mesmo após um grupo de pesquisadores mostrou falhas nesse tipo de decisão feita por programas. Uma IA em Boston, encarregada de definir os horários das escolas foi descartada após a revolta de pais que tinham que trabalhar e outras pessoas cujos compromissos foram ignorados por ela.

É por isso que nós, do MIT Media Lab, estamos começando a nos referir a essas tecnologias como “inteligência estendida”, ao invés de “inteligência artificial”. O termo “inteligência estendida” reflete melhor a relação crescente entre os humanos e a sociedade por um lado, e tecnologias como IA, blockchain e engenharia genética do outro. Pense nisso como o princípio de manter a sociedade, ou as pessoas, dentro do contexto.

Tipicamente, programas são “treinados” por engenheiros de IA utilizando enorme quantidade de dados. Engenheiros decidem quais dados são usados, como eles são pesados, o algorítimo de aprendizado, e vários outros parâmetros, os quais criam um modelo que é eficiente e preciso para tomada de decisões e em prover boas intuições. O objetivo é ensinar as máquinas a pensar como nós. Os algorítimos do Facebook, por exemplo, observaram minhas postagens no site e perceberam que eu estou interessado em criptomoedas e jogos online.

As pessoas fazendo esse treinamento normalmente não são especialistas em decidir termos de condicional ou em planejar o horário de pais que trabalham. Como IA — ou, para ser mais específico, aprendizado de máquina — ainda é muito difícil de programar, as pessoas treinando esses programas à pensar normalmente são especialistas em programação e engenharia. Elas treinam a máquina usando os dados, e a máquina treinada é geralmente testada posteriormente por especialistas nos campos em que elas serão utilizadas.

Um problema significativo é que qualquer erro ou viés nos dados que os engenheiros utilizaram para treinar a máquina irá resultar num programa que reflete esses vieses. Meu colega Joy Buolamwini encontrou que programas de reconhecimento facial que classificam gênero, por exemplo, identificam homens brancos facilmente, mas sofre para distinguir pessoas negras e mulheres — especialmente mulheres negras.

Outro colega, Karthik Dinakar, está tentando envolver diversos especialistas no treinamento dessas máquinas, parar desenvolver o que ele chama de sistemas de aprendizado “humano presente”. Isso requer ou deixar outros tipos de especialistas fazerem o treinamento, ou criar máquinas que interajam com especialistas, os quais irão ensiná-las. No coração dessas técnicas esta a ideia de construir modelos baseados não só nos dados, mas também na perspectiva do especialista sobre os dados.

Se uma engenheira estivesse construindo uma IA para estabelecer tempos de condicional, ela poderia pedir para que um juiz analisasse os dados que ela está usando. Karthik chama esse processo de extrair diferentes perspectivas “lensear”. Ele tem como objetivo colocar a visão de um perito na área (ver com as “lentes” desse perito) dentro de algorítimos que aprenderam com essas observações e irão incorporá-las nos seus modelos. Acreditamos que isso tem implicações em criar ferramentas que, são ao mesmo tempo mais fáceis de serem entendidas por humanos, e também levam em consideração fatores mais relevantes.

Iyad Rahwan, um docente membro do Media Lab, e seu grupo estão realizando um projeto chamado “Máquinas Morais”. Ele usa um site para coletar as opiniões de milhares de pessoas em variantes do “Dilema do Bonde”, perguntando que tipo de decisões relacionadas a segurança devem ser tomadas por carros autônomos. Alguns desmerecem essas perguntas como sendo improváveis ou teóricas, mas a Google entrou com uma patente em 2015 com o nome : “Consideração de riscos em sensoriamento ativo para um veículo autônomo”, que descreve como um computador poderia atribuir pesos para, por exemplo, o risco e o custo de um carro atingir um pedestre versus um outro veículo que está vindo em sua direção. Em Março, um pedestre foi morto por um carro autônomo, a primeira morte desse tipo já registrada.

Kevin Esvelt, um engenheiro genético e docente membro do Media Lab, ganhou reconhecimento por buscar as opiniões de moradores de Nantucket e Martha’s Vineyard sobre suas ideias para a criação de um rato resistente a doença de Lyme. Ele envolveu as comunidades na governança do projeto, inclusive com a habilidade de encerrá-lo a qualquer momento. Seu time seria o “componente técnico”, o que pode significar trabalhar em uma tecnologia por mais de uma década e não ser capaz de utilizá-la. Esse é um grande passo para a ciência.

Também precisamos de humanos envolvidos para determinar métricas que avaliem de maneira justa os custos e os benefícios de novas tecnologias. Sabemos que muitas métricas utilizadas para medir o sucesso da economia — como produto interno bruto, taxas de desemprego, subida ou queda da bolsa de valores — não incluem custos externos para a sociedade e o meio ambiente. Tecnologias já estão reforçando e exacerbando injustiças sociais em nome de eficácia, precisão e progresso econômico.

Fábrica que empregavam 300 pessoas agora empregam 20 porque robôs são muito mais eficientes, menos propensos a erros e trabalham mais rápido. Em torno de 2 milhões de motoristas de caminhões podem estar pensando em quando eles serão substituídos por carros autônomos ou drones. E-mails agora oferecem uma lista de potenciais respostas baseadas na IA de nossos celulares e computadores. Quanto tempo até que eles decidam responder sem nos consultar?

Restaura o equilíbrio em, e entre sistemas levará tempo e esforço, mas mais tecnologistas estão começando a perceber o lado negro de suas criações. Elon Musk, Reid Hoffman, Sam Altman, e outros estão investindo dinheiro e recursos em tentar entender e mitigar o impacto da IA. E existem ideias técnicas sendo exploradas, como maneiras de a sociedade civil se “plugar” em plataformas como Facebook e Google e realizar auditorias e monitorar algorítimos. A nova GDPR europeia, que entra em vigor no dia 28 de Maio, força as plataformas a mudarem a maneira como elas coletam, armazenam e utilizam os dados que elas coletam de seus usuários.

São passos pequenos e promissores, mas são, em essência, tentativas de colocar o gênio de volta na garrafa. Precisamos que ativistas, advogados, artistas, filósofos e outros cidadãos estejam engajados no design da inteligência estendida desde o princípio. Essa pode ser a única maneira de reduzir o custo social e aumentar os benefícios da IA, conforme ela se integra cada vez mais com nossa cultura.

Esse artigo faz parte de uma série explorando os impactos da IA nas liberdades civis. As visões expressadas não refletem necessariamente o posicionamento da ACLU.

--

--