Precisamos falar de Acessibilidade nos Chatbots

O que acontece quando uma pessoa cega tenta usar o seu chatbot?

“Bot Handshake — Illustration” por Joe Roberto parar OPSIN LAB

A idea começou depois que fiz uma pesquisa de UX para carros autônomos ou carros auto-dirigíveis. Realizei um total de 4 entrevistas, onde uma entrevistada é cega. Fiquei muito surpreso em saber que ela poderia tomar conta de si mesmo sozinha e pode sair andando por ai com o auxílio do seu celular e cão guia.

Ela usa o seu celular e cão guia como uma interface para fazer algo que ela (infelizmente) não é capaz de fazer.

Depois das entrevistas, voltei para a minha pesquisa de UX e novamente, outra surpresa: os aspectos de UX para carros autônomos — notei basicamente dois:

  • Visual design — “como fazer com que as pessoas saibam o que o carro vê?” Vários conceitos (interessantes) sobre como fazer com que as pessoas entendam e vejam o que o caro está vendo enquanto dirige sozinho;
  • Affordances —“como permitir as pessoas a interagirem com o carro?” Vi vários botões bonitos, paíneis e dicas visuais interessantes que permitem as pessoas a interagirem com o carro.

Com esses dois aspectos em mente, comecei a me questionar:

E as pessoas cegas? Como essas pessoas poderiam usar esses carros?

Claro que temos a Siri e o Google instalados nesses tipos de carros, mas poucas pessoas estão falando sobre interfaces conversacionais para carros neste momento. Ao invés disso, as pessoas estão falando sobre conceitos legais de UX para esse tipo de carro — no entanto, uma das principais inspirações para carros autônomos são as pessoas cegas.


Sistemas (software) raramente são projetados levando em consideração as necessidades das pessoas com deficiência. Na verdade, é bastante comum que as pessoas que são cegas ou têm algum tipo de deficência não possam usar algum tipo de aplicação. Todos nós sabemos que algumas empresas têm times inteiros dedicados para se certificarem de que estão usando os padrões de acessibilidade da forma correta em seus produtos ou serviços, mas não existe ninguém falando de acessibilidade para Chatbots — não consegui achar nada no Google.

Se chatbots podem ser considerados um software que você pode conversar e interagir a partir de mensagens (texto ou voz), fiquei curioso em saber a respeito das mesmas perguntas que tive com carros autônomos:

Como uma pessoa cega usaria um chatbot? Como ele ou ela poderia interagir com ele?

Considerando que trabalho como UX e chatbot designer, eu queria saber mais sobre como minhas dúvidas se aplicavam (de fato) as chatbots.

Decidi realizar um experimento e ele se transformou em uma grande surpresa.


O experimento

Durante a minha entrevista com a pessoa cega, comecei a aprender mais sobre a abordagem da Apple para ajudar as pessoas a usarem melhor seus produtos. Os dispositivos da Apple têm uma funcionalidade chamada VoiceOver: que basicamente é a Siri te ajudando a interagir com tudo que é acessível em seu iPhone, iPad ou computadores.

Para usar VoiceOver, você precisa ir em Configurações > Geral > Acessibilidade > VoiceOver. Você pode ligar e desligar essa funcionalidade. Nota: também existem vários programas e aplicativos independentes voltados para acessibilidade.

Então, decidi usar o assistente do Google Allo, bots randômicos no Telegram e Slack, Poncho The Weather Cat e o bot do TechCrunch no Facebook Messenger para descobrir como eles iriam responder ao VoiceOver da Apple.

Aqui está o que eu descobri — use o áudio (em inglês):

Problema: é difícil de interagir com os itens da lista. VoiceOver lê algumas coisas confusas.
Problema: VoiceOver não consegue reconhecer os botões e eles não são clicáveis.
Problema: VoiceOver não é capaz de ler as mensagens de texto.
Problema: VoiceOver não é capaz de reconhecer componentes de UI (quick-replies e menu persistente) e imagens.
Problema: VoiceOver não é capaz de reconhecer componentes de UI e os botões não são clicáveis.

Eu realmente não estava esperando pelo o que aconteceu. Foi uma grande surpresa saber que VoiceOver da Apple não foi capaz de reconhecer componentes de UI em diferentes plataformas.

Por exemplo:

  • Quick-replies são vistos apenas como “text-field”. VoiceOver não foi capaz de entender qual era o “valor” do texto em cada opção e nem o que o componente quick-reply é (um botão?);
  • Templates genéricos são simplesmente ignorados. VoiceOver apenas fala “visto em xx:yy hora”;
  • Mensagens de texto são ignoradas no Telegram. Voice over não foi capaz de ler nada;
  • Você não consegue usar botões. VoiceOver não é capaz de enteder o que eram botões em alguns aplicativos e por alguma razão, estava bloqueando a interação com eles.

Não demorou muito tempo para perceber que chatbots não são (ainda) acessíveis em todas as plataformas — Facebook Messenger, Slack, Telegram e Google Allo apresentam problemas parecidos.


Certo. Como podemos consertar isso?

Talvez se as plataformas pudessem apenas usar algum tipo de tag ou qualquer coisa que habilite o texto-para-fala (Text-To-Speech) para leitores de tela seria ótimo ou dar dicas de ações disponíveis — algo como o Google Allo ou Facebook (não o Messenger) faz muito bem. Ou até mesmo permitir que as/os desenvolvedoras/es possam usar tags espcíficas para os componentes de UI ou até mesmo imagens ou gifs — assim como ALT para imagens no HTML.

Mas principalmente, devemos ouvir e compreender melhor as pessoas com deficiência, para fazer algo que possa tornar suas experiências melhores e mais acessíveis. Acredito que podemos começar a partir disso.


Mas de quem é a culpa?

Depois do experimento, comecei a pensar sobre quem era o/a responsável por isso:

  • Desenvolvedoras/es? Uma vez que essas pessoas podem usar as tags ALT para imagens nos website que promovem uma informação alternativa para uma dada imagem, deveriam essas pessoas usarem uma tag ou algo do tipo?
  • Designers? Uma vez que toda interface é uma conversa e os “chatbots” são a próxima buzzword em design, deveriam as/os designers resolver isso?
  • VoiceOver ou plataformas/programas/apps parecidos? Uma vez que estes são os que lêem em voz alta e clara o que está na tela, deveriam estes falar outra coisa ou não falar nada até estes se tornarem mais inteligentes?
  • Plataformas? Uma vez que construímos nossos chatbots baseados nas documentações existentes nas plataformas, deveriam essas plataformas criar uma tag específica ou um parâmetro que ajudem programas de leitura de tela / TTS (Texto-Tara-Fala) a entenderem os componentes de UI?
Sendo bem sincero, não estou aqui para apontar para ninguém, mas estou aqui para começar uma conversa sobre acessibilidade nos chatbots.

Nós temos a oportunidade de criar uma interface que é capaz de ajudar pessoas deficientes (cegas, surdas, mudas, qualquer pessoa) a partir de qualquer meio (computador, telefones, tablets, etc). Nós como designers, pessoas de desenvolvimento, negócios, e qualquer outra pessoa envolvida com o ecossistema de Chatbots deveriam tomar isso em consideração. Nós devemos focar não somente na criação de algo apenas novo, mas em criar algo que seja novo e acessível para todo mundo.


Como designer de chatbot, percebi que várias pessoas que conseguem ler e enxergar, não são capazes de entender ou usar um chatbot. Simplesmente porque os componentes de UI são vistos apenas como textos. Normalmente eu gosto de usar texto (“Clique aqui”), emojis (“Deslize para descobrir mais ⬅️️➡️️”) e tudo mais o que posso fazer para introduzir os bots e seus componentes de UI para as pessoas que vão usá-los.

Se queremos que os chatbots sejam usados por bilhões de pessoas ao redor do mundo, precisamos torná-los acessíveis para todo mundo.

Uma vez que a interface do VoiceOver não é capaz de vê ou enxergar os componentes de UI dos bots, esta interface não é capaz de fazer algo que uma pessoa cega precisaria dela. Como designer de experiência, eu preciso projetar a fim de resolver as necessidades das pessoas ou suas dores, não “apenas” para os conquistar os objetivos delas.


Considerações: como eu falei de várias plataformas, é justo dizer que algumas delas têm times dedicados para desenvolver a acessibilidade em seus produtos — especialmente o Facebook e Google. Tenho certeza de que todas as principais empresas da nossa indústria estão trabalhando para melhorar a experiência dos usuários cegos.

Como David Marcus (Facebook VP-Messaging Products) falou recentemente:

É sempre você! A razão pela qual viemos trabalhar todas as manhãs é continuar a construir um produto melhor e melhor para você.

Eu acredito que tudo isso vai ser resolvido assim que ler este post. Não sei como, mas precisar de alguma coisa… estou aqui para ajudar.


Obrigado pelo seu tempo! ♥️️

Se você gostou do que acabou de ler, por favor recomende ♥️️. Por favor deixe um comentário com seus aprendizados ou pensamentos sobre o assunto. Obrigado Rodrigo Siqueira, Ricardo Blumer Grobel, Fabricio Teixeira e Sérgio Passos pelos comentários, ajustes e pensamentos.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.