AI na vida, AI no UX.

Uma abstração que sempre ignorei, mas que tem sido impossível mantê-la sendo ignorada, em especial no contexto de UX.

Aquele negócio que todo mundo fala mas ninguém sabe exatamente o quê é.

Primeiro que eu sempre tive dificuldades reais com abstrações, e sobre tecnologias ou processos não visíveis. Na verdade, é aquele famoso medo do desconhecido e daquilo que você não domina. Mas obviamente a sociologia sempre me levou a confrontar isso, já que é a ciência daquilo que não está aparente, daquilo que é invisível. Então porque não juntar esse mix de perspectivas e enfrentar esse medo do desconhecido de uma vez por todas?

Um bom jeito começar é dominar ao menos do que se trata esse negócio:

Em 1956, durante as conferências da Dartmouth, o professor John McCarthy criou a expressão para referir-se à capacidade de as máquinas resolverem problemas que, até então, só poderiam ser solucionados por humanos.

O conceito de IA continua o mesmo: a viabilidade de as máquinas pensarem como os seres humanos, desenvolvendo a capacidade de aprender, raciocinar, perceber, deliberar e decidir logicamente sobre os fatos.

Evolução do AI

Desde 1956 o AI vem passando por uma série de transformações e como qualquer conceito ou tecnologia foi se especializando. Com o passar do tempo, mais precisamente por volta dos anos 80 nasceu o conceito de Machine Learning [Machine Learning da maneira mais básica é a prática de usar algoritmos para coletar dados, aprender com eles, e então fazer uma determinação ou predição sobre alguma coisa no mundo], que se tornou um dos métodos mais próximos de conseguir chegar no objeito inicial da AI ainda que com muitas ressalvas, inviabilidades técnincas da época, e entre outros. De 2010, em especial a partir dos anos 2015, temos o hype e uma certa popularização desses conceitos, e nasce o Deep Learning:

Uma técnica que viabilizou a implementação do Machine Learning, que consiste nas Redes Neurais Artificias, surgiram e desapareceram através das décadas. Rede neurais são inspiradas pelo nosso entendimento da biologia do nosso cérebro — todas as interconexões entre neurônios. Mas, diferente de um cérebro biológico onde qualquer neurônio pode se conectar com qualquer outro neurônio dentro de uma certa distância física, essas redes neurais artificiais tem camadas discretas, conexões e direções de propagação de dados.

Você pode, por exemplo, pegar uma imagem, cortar ela em uma pilha de pequenos pedaços que são recebidos pela primeira camada da rede neural. Na primeira camada neurônios individuais, então passam os dados para uma segunda camada. A segunda camada faz o seu trabalho, e assim por diante, até que a camada final produza a saída.

Cada neurônio atribui um peso para os dados que entram — o quão correto ou incorreto ele é relativo a tarefa que está sendo executada. A saída final é então determinada pelo total desses pesos. Tome como exemplo a nossa placa de pare. Atributos de uma foto de uma placa de pare são cortados e examinados pelos neurônios — o seu formato octogonal, a sua cor vermelha, as suas letras distintas, o tamanho comum para placas de trânsito e o seu movimento (ou falta dele). O trabalho da rede neural é concluir se a imagem é de uma placa de pare ou não. Ela traz um “vetor de probabilidade”, que é um valor calculado a partir dos pesos atribuídos a imagem. Em nosso exemplo o sistema pode estar 87% confiante que a imagem é de uma placa de pare, 7% confiante que é uma placa de limite de velocidade e 5% que é um gato preso em uma árvore, e assim por diante — a arquitetura da rede então diz para a rede neural se está certo ou não.

Mesmo esse exemplo está indo a frente, porque até recentemente redes neurais eram evitadas pela comunidade pesquisadora de IA. Elas estavam presentes desde o início de IA, e haviam produzido muito pouco no sentido de “inteligência”. O problema era que mesmo a rede neural mais básica exigia muito computacionalmente, então era uma abordagem nem um pouco prática. Ainda assim, um grupo de pesquisa pequeno liderado por Geoffrey Hinton na Universidade de Toronto se manteve firme, finalmente conseguindo paralelizar os algoritmos para supercomputadores executa-los e provar o conceito, mas só quando GPUs foram incumbidos da tarefa que a promessa foi cumprida.

Se voltarmos para nosso exemplo da placa de pare, as chances são de que enquanto a rede está sendo ajustada ou “treinada”, está produzindo respostas erradas — recorrentemente. Ela precisa de treino. A rede precisa ver centenas de milhares, até milhões de imagens, até os pesos de cada informação recebida pelos neurônios estarem tão precisamente calibrados que conseguem responder de forma correta praticamente toda vez — com neblina ou sem neblina, com sol ou chuva. É nesse ponto que a rede neural aprendeu como que uma placa de pare se parece; ou a rosto de sua mãe no caso do Facebook; ou um gato, que é o que Andrew Ng fez na Google em 2012.

O grande avanço de Ng foi de pegar essas redes neurais, e essencialmente faze-las grandes, aumentar as camadas e os neurônios, e então alimentá-las com um nível massivo de dados para que fossem treinadas. No caso de Ng, eram imagens de 10 milhões de vídeos do YouTube. Ng colocou a palavra “deep” no deep learning, que descreve todas as camadas nessas redes neurais.

Hoje, reconhecimento de imagens por máquinas treinadas através de deep learning em alguns cenários possuem uma taxa de acerto maior que a de humanos, e isso varia de gatos até identificar indicadores de câncer no sangue e tumores em exames de ressonância magnética. O AlphaGo da Google também aprendeu as regras do jogo e treinou para sua partida — calibrou sua rede neural — jogando contra si mesmo repetidamente.

E vem cá, esse negócio de as máquinas fazerem tudo o que os humanos fazem, e os empregos, ficam como?

Apesar de toda a minha preocupação sociológica com o tema, tem um site que mostra se robôs vão roubar o seu, o meu, o nosso trabalho. O site se chama Will robots take my job? , e lá você pode ver se o seu trabalho vai ou não ser substituído. Claro que as projeções aí, baseadas de machine learning, podem falhar, mas é óbvio que devemos nos antentar para inevitabilidade da evolução da tecnologia, de como ela pode nos afetar e como fazemos pra nos adaptar a ela. É o famoso: “se não pode com ela, junte-se a ela.”.

Recentemente a Folha de São Paulo trouxe um paralelo dentro de alguns seguimentos da sociedade sobre o que era ficção otimista, pessimista e o que era realidade. O resultado foi o seguinte:

SAÚDE

Ficção Otimista: AI serveria pra viver mais, como técnincas como transformação (tornar o corpo imune à doenças) e transcedência (transferir a mente para uma máquina).

Ficção Pessimista: No processo radical de metamorfose pra se fundir com uma máquina, humanos perdem valores e emoções.

Realidade: Equipamentos com base em AI servem pra detectar padrões em exames e recomendar diagnósticos, bem como ajudam a monitorar pacientes. No dia-a-dia servem como assistentes em celulares, relógios e etc.

RELACIONAMENTO

Ficção Otimista: Pessoas terem a companhia constante e relação de amizade, e até amor, com robôs.

Ficção Pessimista: Se a relação com máquinas for melhor do que a com humanos, as pessoas podem se tornar obsoletas e perder os seus propósitos também nos relacionamentos.

Realidade: Assistentes virtuais e chatbots até conseguem conversar com humanos, mas a relação está longe de ser semelhante à de falar com uma pessoa.

TRABALHO

Ficção Otimista: Robôs fazem todo o trabalho permitindo que humanos tenham vidas de lazer.

Ficção Pessimista: Trabalho traz um senso de ter um papel na sociedade , humanos sentem que perderam o propósito.

Realidade: Algumas formas de trabalho estão sendo substituídas. No entanto, novas possibilidades de trabalho estão sendo criadas.

Segundo uma pesquisa recente feita pela Adobe, 62% dos seus colaboradores já estão usando AI no processo de criação dos produtos. A própria Adobe lançou recentemente o Sensei. Plataforma focada em AI e machine learning. E há quem diga que além do UX e UI Designer, vai existir o AI Designer.

O site Algorithm.Desing tem uma caralhaaada de exemplo sobre como as empresas estão usando AI. Vale dar uma olhada com cuidado ;)

Como a gente pode ir incluindo esses conceitos no nosso dia-a-dia profissional como UXers e começar a nos acostumar com esse futuro inevitável?

Agora as máquinas não performam só através dos nossos comandos, agora elas performam por elas próprias. O mundo binário não existe mais. Através do machine learning e da “humanização das máquinas” abriu o precedente pra a dúvida, e pra tomadas de decisões difusas. Com isso, o design passa do social pro indivíduo, gerando aí uma capacidade muito maior de personalização da experiência.

Recentemente o Dávid Pásztor Founder e CEO of UX studio, além de ser autor de alguns livros sobre Product Design e a relação entre máquinas e humanos, também é speaker no TED, trouxe alguns desses príncípios que compartilho aqui:

#O1 — Deixar visualmente visível quando um conteúdo ou feature utiliza AI

Um dos outputs do AI, especialmente do Machine Learning, é trazer consigo conteúdos e informações relevantes sobre o usuário e que podem ser compartilhadas com esses usuários. Mas nem sempre essas informações tem o nível de acuracidade esperados. Por isso, o jogo limpo com o usuário é fundamental. E ele próprio decide se confia ou não naquela informação.

Pra exemplificar isso, o autor trouxe 2 exemplos. Um do Zendesk (ferramente de atendimento, CRM e etc) e o Firebase (plataforme de desenvolvimento mobile que foi adquirida pelo Google). Em ambos os casos, a palavra “prediction” ajuda ao usuário a entender que é algo projetado, e que pode não ter 100% de assertividade.

Zendesk e Firebase

#02 — Explicar como as máquinas pensam

É comum que nem mesmo os próprios engenheiros saibam explicar exatamente o que seus algorítimos são capazes de fazer. Nesse sentido, umas das nossas principais metas é evitar esse cenário e torná-lo de fácil compreensão pra todos, em especial pra quem vai usar essas aplicações. E isso não significa que devemos compartilhar com os usuários todos os detalhes do processo, porquê de fato, voltando na história das abstrações, nem todo mundo precisa saber tudo. Mas é importante sim, dar algumas dicas sobre o funcionamento e as categorias de pensamento daquele raciocínio.

Um bom, antigo e tradicional exemplo disso, são as recomendações que recebemos nos sites a partir do nossos hábitos de consumo e de busca.

Outro exemplo que ajuda, inclusive a criar a confiança do usuário na inteligência com a qual ele vai interagir, é no caso dos carros autônomos, é sempre deicar uma tela pra acompanhamento do que está acontecendo.

Explicar o porquê do seu score numa determinada ferramenta, e qual o racional por tras dele, também é um jeito interessante de criar uma confiança entre AI e usuário.

Drip — Ferramenta de email mkt.

#03 — Estresse bem todos os casos extremos

O AI pode gerar situações que ninguém nunca mapeou, ou chegou a considerar mapear. Nesse sentido, a única forma de conseguir melhorar outputs bem negativos com isso é fazendo testes cada vez mais acurados e esperando os resultados mais extremos possíveis.

Recentemente, uma empresa que fazia validação de informações do passaporte de modo automático, cometeram essa bola fora a seguir:

Nesse sentido, você pode decidir junto ao time de desenvolvimento 2 caminhos possíveis de otimização priorizar dependendo da necessidade do usuário e do contexto.

Otimizando para recall: isso significa que no resultado de uma busca numa interface AI, mesmo que o usuário faça uma busca errada ou diferente do resultado pretendido o resultado vai ser trazido independentemente. Exemplo: Imagina que criamos um Ai que consegue identificar as obras do Picasso. Se elas for otimizado por recall, o algorítimo vai listar TODAS as obras do Picasso, mas podem surgir algumas obras do Van Gogh também.

Otimizando por precisão: significa que os resultados de busca vão considerar somente a informação mais precisa, e vão ignorar alguns casos de excessão. Exemplo: O retorno vai ser somente de reconhecimento de obras do Picasso, não vai mais aparecer o Van Gogh, mas pode ser que alguns resultados específicos do Picasso deixem de aparecer.

#04 — Alinhe bem as expectativas

Recentemente soubemos do famoso caso do acidente do carro autônomo da Tesla, em que a falta de alinhamento em deixar claro pro usuário a necessidade de manter as mãos no volante mesmo num carro autônomo era fundamental dado o contexto de pouca acuracidade que falamos tanto nos tópicos anteriores.

Nesse sentido, orientar esse usuário sobre como agir, inclusive numa falha do produto pode custar o preço incalculável de uma vida.

#05 — Training data

Do lado da engenharia, alguns preceitos com relação aos dados <> algorítimos são muito importantes:

  • Encontrar o melhor AI algorítimo pra a atividade/projeto a ser desenvolvido.
  • Preencher a AI com dados treinados. O AI aprende a partir desse dado e cria modelos que serão usados no produto na rua. Um exemplo prático de dado treinando, levando o exemplo que falamos acima, pode ser as obras e o nome de todos os seus respectivos artistas listados.
  • Dar o go live ao produto. E continuar o processo de iteração desse algorítimo.

Nesse sentido, o profissional de UX vai atuar diretamente nesse data base, junto aos times de data pra garantir a precisão desses dados no mundo real, pra que os algorítimos, por sua vez, também reflitam esse contexto.

#06 — Fazer testes de usabilidade com AI pode ser mais difícil que nas aplicações web e mobile que estamos acostumados

Isso se dá porque muitos desses apps são focados na hiper personalização da experiência, em que cada caso é realmente um caso.

No texto o autor sugere o Wizard of Oz testing como um teste possível.

Wizard of Oz testing: Durante esse teste, uma pessoa emula uma resposta ao AI e verifica qual foi o output disso. Esse tipo de teste é bem comum no desenvolvimento de chatbot.

#07 — Feedback em todo lugar

Promova a oportunidade dos usuários darem seu feedback nos mais diversos momentos da interação e assim ajudarem a adicionar novos dados treinados no sistema.

Por ora, é só. Mas esse assunto é vasto demais, e tá só no começo. Certamente ainda vão render outros textos e aprendizados.

Written by

Uma socióloga, outsider do mundo da tecnologia que encontrou no design e na engenharia de software uma maneira prática de entender/melhorar a vida das pessoas.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store