Como reaproveitar dados para aumentar a profundidade em pesquisas de design?

Combinando dados quantitativos e qualitativos no processo de UX Research

Leonardo Campos
Grupo OLX Tech
6 min readMar 8, 2023

--

Recentemente em minha squad de Trust & Safety priorizamos um discovery de um problema relativamente antigo aqui de nosso backlog e logo no entendimento ficou bem claro que esse tema já havia sido explorado por várias pessoas, em várias áreas, em diversos momentos e com diferentes focos durante os últimos anos.

Com esse cenário imposto, planejei realizar uma triangulação de dados para otimizar o processo de descoberta e conseguir aumentar conhecimento do tamanho e do impacto das dores e necessidades dos usuários.

Mas antes de contar como realizei a triangulação, é bem importante alinharmos algumas coisas antes de seguir com a leitura:

1. Não existe um jeito universal;
2. O artigo é um relato de como apliquei a triangulação no meu cenário.

Não existe um jeito, formato, framework que seja universal e que irá funcionar perfeitamente para todos os inúmeros desafios que temos no processo de pesquisa. Cada designer tem o seu estilo de pensamento e cada negócio tem as suas nuances, logo, cada pesquisa tem a sua especificidade e sempre será diferente da anterior (ou da próxima). Dito isso e sem mais delongas, bora lá:

🤓 Começando do começo…

A triangulação é uma estratégia de pesquisa usada para obter diferentes perspectivas sobre um tópico de descoberta e usando métodos opostos para construir uma imagem maior e mais abrangente do que estamos estudando.

Podemos utilizar basicamente dois dados: Qualitativo e Quantitativo

Dado subjetivo
As pesquisas qualitativas nos ajudam a analisar a realidade de uma situação de modo empírico, presenciando, entrevistando, testando ou acompanhando o fenômeno para compreender as suas motivações, dificuldades e emoções envolvidas naquela situação.

Dado objetivo
Já a pesquisa quantitativa nos ajuda a entender o tamanho daquele fenômeno analisado, o comportamento em larga escala, através de dados coletados e analisados de forma neutra.

Utilizamos um método para suprir as limitações de outro, que é um dos principais benefícios da triangulação.

👀 Escolhendo a forma de triangular

Por se tratar de métodos complementares, não temos uma receita de bolo (como tudo no design) de como realizar a triangulação, então você pode:

  • Sequenciar quali e depois quanti
    Realizar uma pesquisa qualitativa, analisar, realizar uma pesquisa quantitativa focada, analisar e convergir.
  • Sequenciar quanti e depois quali
    Realizar uma pesquisa quantitativa, analisar, realizar uma pesquisa qualitativa focada, analisar e convergir.
  • Combinar quanti junto com quali
    Realizar as duas pesquisas simultaneamente, analisar/comparar e convergir.

O formato fica a escolha de quem está conduzindo o processo. No meu caso, como tínhamos uma grande quantidade de dados dentro de casa e a escolha foi pela combinação de dados já existentes.

🔭 Minerando os dados

Logo no entendimento, tendo em vista que tínhamos muitos dados dentro de casa, aproveitei para utilizar uma adaptação da matriz CSD com os stakeholders, onde só consideramos algo como Certeza caso ela viesse acompanhada de uma fonte de dados (quanti ou quali). Além de ajudar na diferenciação clara entre uma suposição e uma certeza, também já conseguimos mapear de forma rápida os dados relevantes que analisaremos de alguma forma.

Claro que você pode escolher qualquer outra forma de encontrar essas fontes, investigando conteúdos no notion ou drive de sua empresa, entrevistando individualmente os envolvidos, etc.

🛠 Mise en place dos dados

Independente do formato que escolheu, chega o momento de convergir as informações encontradas. Algo que aprendi é que quando manuseamos uma grande quantidade de fontes de dados, é muito fácil perder a origem de cada informação e ficar se perguntando “Da onde veio isso mesmo??”.

O que ajudou bastante para não ter essa dor de cabeça e conseguir trackear as informações, foi dedicar um pequeno tempo para documentar o tema de cada dado: quando aconteceu, quem realizou, qual foi o método utilizado e anexar a documentação original de cada dado.

🏃🏾 Um passo de cada vez…

Pensando em agilidade, seu esforço cognitivo e facilidade na compreensão de cada dado, uma sugestão é analisar cada artefato individualmente e construir conhecimentos específicos de cada informação, lembrando sempre de evitar vieses, suposições e interpretações equivocadas.

Na prática:

Quando sentamos para analisar os dados acima, começamos a entender algumas coisas:

  • Usuários privados de um grupo possuem poucas informações trocadas de forma instantânea;
  • Usuários profissionais de outro grupo possuem mais informações trocadas de forma instantânea;
  • Um dos grupos de usuários possuem uma taxa maior aos finais de semana;
  • Durante a semana, um dos grupos tinham tendência maior de ficar sem informações quando comparados a terceiro grupo;

Essas interpretações individuais já podem, e devem, ser documentadas. Normalmente aqui surgem pensamentos como: São informações importantes? São informações soltas? Existe outro dado complementar que explique esse comportamento?

Como ainda não sabemos (e talvez não seja produtivo responder todas essas perguntas agora), para facilitar a próxima etapa da análise e, principalmente, para evitar seu retrabalho, documente TUDO. O seu cérebro agradecerá muito ao final do dia :)

🎲 Convergindo os dados

Agora, é o momento de encontrarmos padrões nessas toneladas de pixels que reunimos, construindo fatos, padrões, comportamentos e insights. Mas por onde começar?

Você escolhe, mas uma sugestão, que ajudou a retirar alguns vieses, é iniciar de forma randômica, selecionando e relembrando cada dado, quanti ou quali, e organizando-os em grupos maiores. Nesse formato forçarmos uma análise sem grandes pré-interpretações, fugindo de um comportamento psicológico natural dos humanos de preencher lacunas, filtrar informações e tentar achar significados mirabolantes a partir de pequenos estímulos.

Conforme os grupos vão se formando, vamos começando a identificar de forma natural as histórias que eles estão contando.

Dica: Muito cuidado em formar grupos com pouca miscigenação de fonte de dados.

Como não somos máquinas (ainda), provavelmente teremos que fazer a análise intercalando com reuniões, refeições e descansos. Mas como lembrar das histórias quando voltar do almoço? O que me ajudou a não ter que ler todos os dados novamente, foi utilizar nomes fantasias (filme, livro, jogo, música, reality show ou até um meme) que remetesse à história daquele grupo.

🎯 Sintetizando as história

No final da análise e da triangulação dos dados, chega o momento de documentar e sintetizar os aprendizados, e ,novamente, aqui você pode utilizar o formato de síntese que melhor se encaixe em sua necessidade. Vale hipóteses, vale insights, vale desafios…o que melhor explique o fenômeno em que você está estudando.

O essencial mesmo é dar o mesmo peso para os dois dados, não desqualificando um número por conta de uma fala de usuário, e nem enfatizando um métrica em detrimento de uma review de aplicativo por exemplo..

A ideia é que ao final da síntese e da combinação dos dados, você chegue a conclusões que expliquem, momentaneamente, o fenômeno que esteja estudando. Porém isso não quer dizer que essa conclusão seja absoluta ou irrefutável (até porque sabemos que toda pesquisa tem um prazo de validade), e sim que ela sirva para que consigamos aproveitar todos os dados que já temos mapeado para testar rápido, errar rápido e aprender rápido, e como dizemos aqui na cultura da OLX #experimentamos, aprendemos e inovamos.

Sou o Leo, Product Designer na estrutura de Trust & Safety e meu foco é garantir um ambiente seguro e confiável para todos os usuários da OLX, reduzindo fraudes e entregando as ferramentas e informações necessárias para uma jornada confiável.

--

--

Leonardo Campos
Grupo OLX Tech

Designer que curte conversar sobre música, politica e filmes em preto e branco.