Guia rápido para conduzir testes não moderados
Ter uma rotina de teste de usabilidade, em modo presencial ou remoto, para validar a eficiência das propostas e conceitos desenvolvidos para um produto é um dos grandes desafios para vários times de desenvolvimento. É um processo que exige muito esforço principalmente nas etapas de recrutamento e agendamento de participantes.
Entretanto, para alguns contextos, onde você precisa checar alguma ação específica e mapear seus efeitos é possível fazer uso de testes não moderados, que não necessitam de acompanhamento de um facilitador. Eu e o Raoni Caselli reunimos aqui alguns aprendizados sobre este tipo de abordagem.
Quando aplicar?
No livro Handbook of Usability Testing Jeffrey Rubin e Dana Chisnell recomendam testes não moderados como uma maneira de complementar testes de usabilidade moderados.
Testes menos complexos, com fluxos simples, compostos de poucos passos (sugestão até 3 cliques), estudos de copy, de posicionamento de componentes, de microinterações e avaliações de look & feel são cenários que podem se beneficiar deste tipo de abordagem que pode ajudar a esclarecer dúvidas pontuais durante uma fase de conceito ou de refinamento de um fluxo.
Como aplicar?
Inge de Bleecker e Rebecca Okoroji em seu Remote Usability Testing sugerem atenção a alguns pontos para a aplicação de um teste não moderado:
- A quantidade de respondentes precisa ser expressiva para ter alguma significância estatística;
- Para cada tarefa proposta, sempre que possível, complemente com o uso de surveys para ter resultados que complementarão os achados obtidos via captura de cliques e heatmaps.
- Atenção na definição do perfil dos participantes pois o setup do teste vai exigir que eles tenham habilidade para interagir com o protótipo sem a ajuda do moderador.
- A estrutura de um teste não moderado exige um cuidado ainda maior na hora do copy. As instruções precisam ser claras, objetivas, sem ambiguidade e devem ter destaque para garantir que serão lidas. Isso minimizará problemas com induções, dúvidas e erros na hora da realização da tarefa.
- O objetivo do estudo deve ser apresentado ao respondente antes do primeiro contato com a interface a ser avaliada. Isso ajuda a mitigar o tempo de leitura com informações secundárias.
- O tempo de leitura das informações na tela deve ser considerado na hora da avaliação de completude.
- Para garantir que tudo ocorra como esperado, um teste piloto é mais que recomendado nessa abordagem.
Qual ferramenta escolher?
Há inúmeras opções de ferramentas disponíveis no mercado para facilitar a aplicação de testes não moderados. A depender dos recursos que pretendemos integrar na atividade, encontrar a ferramenta adequada pode demandar um pouco de tempo. Neste link o Nielsen & Norman Group apresenta uma boa variedade para explorar e conhecer. Lembre-se de considerar na exploração quais recursos a ferramenta dispõe para análise de dados e apresentação de resultados.
Vantagens
- A pessoa usuária pode realizar o teste no momento e local mais conveniente para ela;
- Não requer o acompanhamento de um facilitador;
- Não há despesas com o aluguel e preparação do espaço físico para aplicação do teste;
- Não há despesas com o deslocamento do participante até o local da atividade;
- Otimiza o tempo gasto no processo de recrutamento;
- Atinge um grande volume de respostas a partir de diferentes perfis e contextos em um curto/médio prazo.
Desvantagens
- Mesmo que a clareza das orientações tenham sido testadas, algumas pessoas podem sentir dificuldade para entender os procedimentos pois o cenário não moderado requer certa familiaridade com o uso de recursos digitais;
- Não é possível observar comportamentos, dúvidas e reações no momento que a pessoa está interagindo com o protótipo. Isso dificulta o mapeamento do impacto e do nível de severidade do ponto de vista da pessoa usuária;
- Como outros processos não moderados, não é possível identificar o estado emocional/físico do respondente. ex. feliz, raivoso, com sono, fatores que impactam na tomada de decisão e escolha dos participantes;
- Não temos controle sobre a infra-estrutura e isso pode impactar no tempo de execução da atividade. Ex. A qualidade da conexão pode piorar durante o teste ou interrupções com ligações e pessoas próximas podem acontecer;
- Pode ocorrer uma falha técnica no protótipo e não há como orientá-lo sobre o procedimento para realizar uma nova tentativa;
- Você precisa ter uma base significativa de pessoas usuárias, preferencialmente bem estratificada para te ajudar a fazer boas correlações durante a análise.
Testando a abordagem
Para verificar a eficiência da aplicação de testes não moderados preparamos um cenário cujo objetivo principal era entender se o novo visual de uma página do produto RD Station CRM estava fácil de entender, navegar e gerenciar. Isso envolveu a criação de algumas atividades com o foco em tarefas de gestão de contato com o cliente, como edição de informações e localização de dados específicos.
A integração com o Figma somada a opção de ter disponível uma versão gratuita nos fez optar pelo Maze. Verificamos a possibilidade de testar outras ferramentas como o Useberry, mas tivemos dificuldades na integração e o fato do Maze já ter sido utilizado antes por outros membros do time influenciou nossa escolha.
Setup do teste
- As perguntas iniciais, objetivas, buscavam identificação do perfil: tempo de contato com o produto e o perfil de atuação na empresa;
- O Maze denomina de missão cada atividade a ser avaliada. Após as perguntas iniciais, os respondentes foram apresentados às missões. Após algumas discussões e pensando em não sobrecarregar os participantes, um total de 6 missões foi definido para ser avaliado.
- Para evitar ambiguidade e dúvidas na hora de entender o objetivo de cada missão, dedicamos um tempo extra para revisar a descrição de cada missão;
- Uma escala Likert de 5 pontos foi usada para avaliar a percepção sobre o nível de dificuldade (geral) ao realizar todas as atividades. Ela foi aplicada logo após o participante finalizar todas as missões;
- Para finalizar, aplicamos uma questão subjetiva (não mandatória) para coletar sugestões de melhoria.
Para evitar que os usuários se perdessem e não conseguissem voltar sozinhos para telas anteriores evitamos fluxos longos, com muitos passos e navegação entre telas. Isso ajudou a tornar o teste mais objetivo e dinâmico.
Resultados
- O resultado foi bastante satisfatório, trouxe muitos insights e respostas sobre a forma como usuários perceberam e interagiram com um novo componente que estávamos testando;
- Com a análise dos dados de cada teste, conseguimos avançar em algumas suposições sobre o entendimento das funcionalidades de gestão da página do contato;
- O Maze trabalha com caminhos sequenciais (paths) e desta maneira considerou completude de tarefa apenas quando o respondente percorria o flow estabelecido, não considerando outros caminhos alternativos como sucesso direto, apenas indireto. Para esses outros caminhos contarem como direto, precisam estar também mapeados no Maze;
- Durante a análise, percebemos que algumas melhorias poderiam ter resultado em dados menos distorcidos. Notamos que as pessoas passaram um tempo maior na primeira tela e o fato do primeiro contato com o protótipo ser imediatamente uma tarefa impactou diretamente o tempo de performance, pois muitos usaram esse momento para explorar a novidade. Soma-se a isto o fato do protótipo apresentar uma proposta de Redesign em todas as telas apresentadas;
- O Maze apresentou bugs, principalmente quando o protótipo possuía a abertura de “overlays” ou quando possuía alguma animação, às vezes não considerando a completude de uma missão mesmo com o usuário fazendo tudo corretamente;
- Ter uma definição de sucesso direto e indireto é confusa, pois qualquer interação fora dos caminhos mapeados resulta em um sucesso indireto, que por sua vez baixa a nota de usabilidade dada pela ferramenta para a missão;
- A forma de apresentação dos dados é bem agradável — o que possibilita apresentar os resultados direto de sua plataforma. Assim que atingimos um certo número de respondentes, N>100, foi possível compartilhar o link ou enviar o resumo com resultados parciais em formato pdf.
- Sentimos dificuldade no momento de configurar o mapeamento de caminhos alternativos para a conclusão da missão. Verificamos que em alguns momentos, a interação não funcionava bem com o Overlay, por esse motivo, optamos por não configurar fluxos alternativos. Não foi possível verificar a performance de tempo para quem optou concluir a atividade por meio de outra sequência de ações;
- A sequência das missões foram iguais para todos os participantes, permitindo o aprendizado ao longo do teste de como completar uma missão antes mesmo de chegar nela e dificultando a análise das últimas missões . Se o Maze permitisse a randomização das missões, poderia reduzir esse viés;
- Teste não moderado foi uma boa opção para verificar a relação entre o contexto da tela e o impacto de uma determinada interação. Uma interação pode ter impacto diferente a depender do contexto e do objetivo proposto em cada tela. Conseguimos aprender sobre a usabilidade de um novo componente criado para o Design System do RD Station, aplicado em um contexto de uso do produto;
- Sobre os aprendizados com o setup do teste: algumas instruções não estavam tão claras e acabaram direcionando alguns respondentes para outras missões;
- Por fim, sobre o nosso objetivo inicial, identificar pontos de melhoria e entender o quanto a nova proposta estava compreensível e intuitiva para navegar, os resultados indicaram que o aprendizado sobre como usar foi satisfatório mesmo para aqueles que não estavam familiarizados com esse tipo de atividade. Durante o teste observamos que o mesmo tipo de interação foi executado de forma mais rápida conforme a progressão nas missões.
Boas práticas baseadas nos resultados de vários experimentos
- Caso exista mais de uma maneira, em diferentes pontos da tela, para realizar a mesma tarefa, é importante considerá-la na avaliação. Considere a possibilidade de ter diferentes versões do teste para conseguir verificar qual dos caminhos foi o mais percorrido, assim como o tempo de completude para cada alternativa;
- Tente descrever com clareza as tarefas, valide o texto com pessoas de diferentes perfis, preferencialmente pessoas não técnicas. É uma boa forma de verificar o quanto o texto está ou não está claro;
- Aplique alguns testes piloto para verificar as especificidades do fluxo e checar se tudo está funcionando como esperado. 5 testes já te ajudam a identificar pontos críticos na estrutura do teste;
- Tenha uma tela de introdução para explicar o contexto do estudo e dar uma visão geral sobre as atividades que serão executadas. Isso ajudará a diminuir o tempo do participante ao entrar em contato com a tela inicial. Em um segundo experimento com o Maze, colocamos uma tela de boas vindas, sem interações, só com a imagem do protótipo, isto diminuiu o bounce de 57% para índices entre 3 e 17% na primeira tela. Evite retrabalhos e esforços desnecessários;
- Embora seja tentador continuar coletando dados, ao iniciar a análise encerre o experimento;
- Não coloque muitos passos dentro de uma mesma missão/tarefa. Além de ser mais tranquilo para quem testa, fica mais simples para analisar. Recomendamos tarefas que possam ser realizadas em 3 cliques;
- Muito cuidado com a resolução e peso do protótipo. O Maze gerencia a exibição do protótipo diferente do que foi definido no Figma. Vale testar antes em tamanhos de tela menores e conexões mais lentas (dá pra simular);
- Não use overlays no protótipo, a depender do posicionamento dos componentes o overlay bloqueia a ação de interação e impede a completude da tarefa;
- Se for usar a conta gratuita do Maze lembre-se que não será possível extrair os dados brutos para tabular em planilha;
- Para evitar que os participantes abandonem o processo no meio do teste, use uma pequena quantidade de missões;
- Evitar o uso de animações e overlays, dar preferência a transição entre páginas, mesmo para mostrar interações simples como hover. Isso garante que o teste funcione para todos, diminuindo possíveis bugs e métricas alteradas;
- Para evitar erros e cliques no lugar errado, limite a quantidade de interações em cada missão avaliada. Em nosso segundo experimento usamos um protótipo com 3 grandes áreas interativas e observamos que isto pode ter causado distrações e até desistências em algumas missões.
Para saber mais
Remote Usability Testing, actionable insights in user behavior across geographies and time zones por Inge De Bleecker & Okoroji Rebecca.
Remote Usability tests: moderated and unmoderated por Amy Shade. Disponível em: https://www.nngroup.com/articles/remote-usability-tests/
Handbook of Usability Testing, how to plan, design, and conduct effective tests por Jeff Rubin & Dana Chisnell.