Robôs que não mentem: o Princípio Cooperativo — Parte 2 🤞
Erros e acertos bem humanos aplicados em UX de interfaces conversacionais.
Corrija-me se estiver errado. Você chegou aqui para saber mais sobre o Princípio Cooperativo e suas aplicações em interações entre humanos e robôs, certo? Então podemos continuar. Se caiu de paraquedas, sugiro dar uma passadinha na primeira parte da conversa.
Agora, imagine um papo que segue mais ou menos suave. Então surge ☝️ um ruído. Aí, alguém aponta o mal-entendido. E vem a correção. Problema resolvido? O assunto evolui. Se não, vem outra rodada de correção. E assim por diante. Ficou parecendo que o papo não flui? Muito pelo contrário.
É que esse tipo de sequência que acabei de descrever é tão natural que, muitas vezes, nem percebemos. São estratégias cooperativas que têm o poder de trazer a prosa de volta para o rumo certo. E que também podem evitar tremendas confusões.
Sequências de reparo são tão comuns numa conversa espontânea que acontecem pelo menos uma vez a cada 84 segundos. Essa frequência foi descoberta a partir de um estudo de Análise da Conversação, feito sobre mais de duas mil gravações num universo de 12 línguas bem diferentes entre si.
Sendo assim, e pelo que a pesquisa indica, as sequências de reparo são tão universais quanto triviais. Mas, como nossa linguagem está longe de ser infalível, elas têm um custo. Essas interrupções, bem como suas estratégias de correção numa conversa, ocorrem em níveis progressivos.
Mas já estou violando algumas máximas do Princípio Cooperativo aqui neste artigo. Então, já me corrigindo, vou interromper a conversa para avisar que o papo de hoje merece um banquinho. Assim, respeito o seu tempo. E você pode decidir se vale a pena seguir me lendo agora, se prefere guardar o link pra ler outra hora, se fala “vamos marcar”… Ou responde: 7 minutos do Medium? Sem tempo, irmão. 😎
A conversa de hoje passa pelos tópicos:
- A Máxima da Qualidade e sua interpretação da verdade.
- Reparo de erros e desvios: como trazer a conversa de volta com uma piada.
- Uma aplicação prática e agnóstica desses princípios baseada num bot real.
Mentiras que nossos avôs não contavam.
Conforme o artigo “Lógica e Conversação” de Paul Grice, a Máxima da Qualidade do Princípio Cooperativo diz: tente fazer com que sua contribuição numa conversa seja verdadeira. E continua assim:
- Não fale o que você acha que é falso;
- Não diga algo sem ter provas de que seja verdade.
Bolacha e biscoito? Parece a mesma coisa mais não é. Uma interpretação menos pragmática seria: fale o que mais importa para a conversa, de maneira precisa e sincera a partir do que você acredita.
O que pode dar errado?
Conforme a teoria das “implicaturas” de Grice, daria para descrever possíveis situações e resultados de violações de máximas cooperativas assim:
A. Quando um dos participantes viola as regras sem querer, e sem que ninguém perceba. Resultado: mal-entendido e confusão.
B. Quando um dos participantes viola regras de propósito no estilo “não quero mais falar sobre esse assunto”. Resultado: a conversa pode acabar.
C. Quando um dos participantes trava por não saber a informação necessária, e explica o porquê. (viola a Máxima da Quantidade, mas não a Máxima da Qualidade). Resultado: o propósito da conversa pode mudar.
D. Quando um dos participantes desrespeita uma regra, e é pego no flagra. Resultado: a conversa deixa de ser cooperativa. E pode entrar no campo da ironia, da simulação ou do sarcasmo.
Então, quando os interlocutores têm um objetivo em comum e reconhecem uma violação do princípio cooperativo, é preciso trazer a conversa de volta para o rumo certo. E, quando a Máxima da Qualidade é seguida, o objetivo de quem detectou o problema é que o reparo seja tão específico quanto o possível naquele momento, minimizando o trabalho do seu interlocutor.
E isso também nos traz de volta para as sequências de reparo e suas estratégias.
Não repara e pre-pa-ra.
No fluxo frenético dos turnos de uma conversa natural, qualquer sinal de confusão ou desentendimento pode dar início às sequências de reparo. É possível dividir uma dessas sequências em 3 momentos específicos. Em português-br, gosto de chamar esses estágios de:
- A origem da confusão: a fonte do problema, geralmente um enunciado com mais de uma interpretação possível, uma pergunta fora de contexto e/ou mal formulada.
- O início do reparo: o sinal de que alguma coisa não foi entendida e precisa ser reparada. Esse reparo pode ser mais vago ou mais específico.
- A resolução: a solução em si. Pode ser um resumo ou repetição do enunciado com outras palavras, ou a reformulação da pergunta. A resolução costuma ser seguida por um sinal de que a conversa pode voltar pro rumo combinado. “Entendi. Ah, tá!”
Trago o seu rumo de volta com uma piada.
Que tal usar uma piada para exemplificar os estágios de reparo, mas com aquela pegada bem brasileira?
“Ufa”, poderia responder a vítima da piada infame. Aliás, a piada só funciona (para algumas pessoas) devido à confusão dos nossos interlocutores. Se nossa vítima fosse menos específica na sua estratégia de início de reparo, ela daria mais trabalho para o assassino reformular a sua missão. E, por outro lado, poderia não ficar tão aliviada assim:
Já as consequências de uma estratégia de reparo mais específica poderiam evitar a confusão. Para melhor ou para pior do ponto de vista da vítima:
Piadas à parte, a tendência universal de ser específico no reparo tem duas vantagens. A primeira seria aumentar as chances de resolver o mal-entendido mais rápido. E, se possível, de uma vez por todas.
A segunda vantagem pode revelar um motivo mais altruísta. Quanto mais esforço você coloca no início do seu reparo, menos trabalho a outra pessoa terá para resolver o problema. Ou seja, o esforço de um é inversamente proporcional ao do outro. Mais ou menos assim:
Para finalizar essa parte, deixo aqui duas referências caso você queira se aprofundar nesse tipo de estudo linguístico. O supracitado “How we Talk: the Inner Works of Conversation” e o artigo que me inspirou a escrever sobre esse assunto. O texto “Conversational UX: Repair Sequences”, da Dr. Carmen Martínez, abre alas para um livro com o mesmo título que deve sair muito em breve.
O ser humano tá vindo, aja naturalmente…
Muito bem. Prometi um exemplo prático de como aplicar estratégias de reparo observadas em conversas naturais num chatbot da vida real. Promessa é dívida.
No ano passado, apliquei uma mistura das recomendações de reparo do Google para o Assistant num chatbot do Facebook Messenger. A ideia seria basicamente ignorar o que o usuário escrevia num input aberto, no caso do bot não reconhecer sua intenção num estágio avançado do funil. E na sequência tentar resolver o problema em, no máximo, 2 turnos. Alguém aqui já viu essa imagem?
BotDoc, o médico de robôs: paciente 2
Podemos nos referir a esse bot como: “o atendente de plano de saúde com problemas sérios de memória.
Contexto: o usuário precisa marcar uma consulta médica mas, toda hora que escreve algo não previsto nas intenções do chatbot, volta para o início da conversa. E tem que passar novamente por todos os 12 passos necessários para agendar sua consulta. Então, desiste depois de esperar na fila para ser atendido por um humano.
DIAGNÓSTICO E REDESIGN
Para aplicar o Princípio Cooperativo com a Máxima da Verdade, o bot deveria ser sincero e específico em suas respostas, sem cometer sincericídio. E, caso não conseguisse resolver o problema, abrir o jogo depois da segunda tentativa, explicando o processo de atendimento humano ao invés de mandar o usuário para o início do fluxo.
RESULTADOS
Apliquei essa estratégia e escrevi uma ajuda contextual específica para cada um dos 12 passos do fluxo de marcação de consulta. Com isso, depois de 3 meses, foi constatado:
- Aumento em 23% dos agendamentos de consulta em relação ao período anterior.
- Aumento de compreensão de 67% nas interações abertas. (O usuário dava respostas específicas para perguntas específicas)
Acho que foi um esforço inversamente proporcional ao do usuário no momento, mas valeu a pena. E por hoje é só, pessoal.
— — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
Esse artigo é o quarto de uma série que relaciona referências de UX conversacional com a experiência de 10 chatbots que desenhei em 2018. Você pode ler o primeiro por aqui. Até o próximo 👋.