L’Attrakdiff et la refonte du parcours de souscription chez Ornikar Assurance

Marion Adicéam
Ornikar
Published in
7 min readMar 20, 2023

Ornikar est une auto-école en ligne qui accompagne ses utilisateurs du code jusqu’à l’obtention du permis de conduire depuis 2013. Après le service d’auto-école, Ornikar se lance en 2021 dans l’assurance auto pour continuer d’accompagner ses anciens élèves dans leur vie de jeunes conducteurs.

L’équipe Design Ornikar c’est aujourd’hui 9 personnes : 2 UX researchers, 5 Product Designers, 1 System Designer et 1 VP Design. Les expertises variées de chacun nous poussent à travailler chaque jour pour valoriser nos méthodes et à mettre les utilisateurs au coeur de nos conceptions. Je suis Marion Adicéam, Product Designer chez Ornikar dans la tribe Growth — l’équipe en charge du parcours de souscription à l’assurance auto Ornikar. L’expérience que nous proposons à nos utilisateurs sur ce parcours est déterminante pour les convaincre de choisir notre service plutôt qu’un autre. J’ouvre donc aujourd’hui le bal d’une série d’articles où chaque Product Designer va témoigner de son expérience, de ses échecs comme de ses réussites.

Le contexte

Tout commence en juillet dernier, lorsque je rejoins l’équipe de Product Designers chez Ornikar pour travailler sur le parcours de souscription à l’assurance auto. Il s’agit d’un parcours d’acquisition durant lequel les utilisateurs doivent répondre à une série de questions afin d’obtenir un devis adapté à leur situation et besoins. De manière générale, compléter un formulaire est rarement une partie de plaisir, d’autant plus quand celui-ci est long. Nous faisons face au challenge de rendre cette expérience la plus ludique et motivante pour nos utilisateurs. Notre enjeu est donc de guider suffisamment les utilisateurs pour qu’ils ne rencontrent pas de difficultés à fournir les informations demandées et qu’ils gardent l’envie d’aller jusqu’au bout de leur tâche.

Sur ce parcours de souscription, une refonte importante en termes de design et de technique est alors en cours depuis un certain temps. En effet, grâce à des tests utilisateurs, des problèmes ont été identifiés sur le parcours de souscription alors en production. Ces problèmes concernaient tout d’abord la compréhension des contenus, l’assurance auto pouvant utiliser des termes avec lesquels nos utilisateurs ne sont pas familiers. Ensuite, un manque global de pédagogie sur le parcours, ce qui allait à l’encontre de notre positionnement auprès des jeunes conducteurs. Et enfin, un manque de cohérence entre les différentes étapes du parcours. Ces constats avaient guidé le choix d’un nouveau parcours insistant sur la pédagogie et l’accompagnement des utilisateurs à chaque étape.

À mon arrivée, l’équipe acquisition travaille à la conception de cette nouvelle version. Le parti pris fort qui se dessine est alors le suivant : proposer une seule question par écran. Cette solution nous permet d’apporter de l’aide et de la pédagogie contextuelles à chaque étape du parcours.

2 versions d’un même parcours

Faire face à l’échec

Une fois la conception achevée, les développeurs commencent l’intégration de cette nouvelle version. L’objectif est de lancer un AB test afin de s’assurer qu’elle est bien plus performante que la précédente. 70% des utilisateurs continuent de voir la version initiale tandis que 30% voient la nouvelle version avec une question par écran.

Les résultats de ce premier AB test ne tardent pas à arriver mais ne sont pas ceux que l’on espérait : la nouvelle version performe moins bien que la précédente. En effet, nous constatons qu’il y a moins d’utilisateurs qui vont jusqu’au bout du parcours.
La décision à prendre est difficile : revenir à la version initiale qui performe mieux mais ne correspond pas à notre ambition ? Ou bien itérer sur cette nouvelle version, en prenant le risque de ne jamais rattraper les performances perdues ?

Ce moment, c’est celui ou tu te demandes si tu dois continuer parce que t’as déjà fourni plein d’efforts ou si tu dois t’arrêter pour ne pas gaspiller plus d’énergie. (Coucou le biais des coûts irrécupérables)

L’hésitation

Et rebondir !

Pour trancher le plus objectivement possible, nous décidons d’abord de comprendre nos erreurs et investiguons pour identifier les problèmes. Toute l’équipe acquisition — produit, QA, data et design — s’y met :
• La QA lance des tests pour découvrir des erreurs en production.
• La DATA étudie la donnée pour trouver les écrans du parcours susceptibles de poser problème.
• Côté Design, je réalise un Audit UX sur la base des Heuristiques de Nielsen pour identifier des potentiels problèmes d’utilisabilité sur les interfaces.

Je lance également un AttrakDiff afin de comparer ce parcours au précédent, sur lequel nous avions mis en place un AttrakDiff précédemment.

Qu’est ce qu’un AttrakDiff ?

Un AttrakDiff est un test standardisé qui sert à évaluer l’expérience d’un utilisateur sur une interface. Il n’est donc pas spécifique à une typologie de produits. Il se décompose en 28 duo d’adjectifs opposés — par exemple “simple” et “compliqué” — réunis en 4 échelles de notation :
L’utilisabilité, mesure d’utilisation dans un contexte spécifique pour atteindre un objectif défini de manière efficace, efficiente et satisfaisante : Le produit est-il facile à utiliser ?
La stimulation, mesure de l’intérêt et de la pertinence : Le produit est-il intéressant ?
L’identification, mesure d’appropriation pour un utilisateur donné : Le produit me correspond-t-il ?
L’attractivité globale, mesure de la satisfaction de façon générale, sur plusieurs critères : Le produit est-il satisfaisant ?
Ce test est très adapté dans le cadre d’une refonte car il facilite la comparaison d’une version et de l’autre grâce aux scores. Par le même occasion, il permet d’identifier très précisément les forces et faiblesses d’une interface.

Le questionnaire de l’AttrakDiff

Nous identifions rapidement que nous avons un problème majeur concernant la gestion des erreurs et quelques problèmes plus mineurs (mais tout de même gênants) d’utilisabilité. Nous corrigeons rapidement ces derniers puis nous relançons dans la foulée un AB test. Cette fois-ci, il s’avère concluant et en faveur de la nouvelle version : c’est décidé, nous la gardons !

C’était un soulagement pour l’équipe de se dire que le travail mené, le temps passé et surtout l’énergie dépensée n’était pas vains.

Le soulagement

L’optimisation continue…

Si nous avons réussi à optimiser le parcours grâce a des quick wins, nous avons encore une marge de manœuvre importante pour rendre notre parcours plus efficace. En effet, même si les résultats des AttrakDiff sont très similaires, nous en tirons des apprentissages qui nous permettront d’améliorer la version choisie. Premièrement, le parcours est perçu comme long et peu motivant. Deuxièmement, il est perçu comme étant peu novateur.

Grâce à ces apprentissages, nous identifions deux nouvelles opportunités pour proposer à nos utilisateurs, une expérience agréable qui leur donne envie de souscrire à une assurance auto :
Renforcer l’identité de notre parcours pour le rendre mémorable et se démarquer des acteurs traditionnels.
Réduire la perception du temps passé sur le parcours.

C’est avec enthousiasme, que je reprends donc une phase de conception pour répondre à ses objectifs. Grâce à des Design Critic, les idées fusent et s’enrichissent avec l’équipe Design et Product. Je propose finalement des solutions qui s’appuient sur le design émotionnel afin de rythmer au mieux l’expérience de nos utilisateurs et leur donner le sentiment de progresser efficacement et agréablement vers l’obtention de leur devis :
Une barre de progression avec une petite voiture qui avance d’une question à l’autre.
Une animation entre chaque grandes étapes, par exemple entre les informations sur la voiture et celles sur le conducteur.
Des illustrations qui accompagnent les questions et renforcent notre identité graphique.

Les optimisations du parcours

L’assurance c’est nouveau chez Ornikar, même les équipes sont nouvelles, c’est super motivant de pouvoir faire s’exprimer le potentiel d’un nouveau produit et de partager cet enthousiasme avec toute l’équipe !

La concentration

Et la mesure aussi !

Les modifications que j’apporte concerne essentiellement le design de l’interface et la hiérarchie de l’information sur les écrans, et je peux ainsi réaliser très rapidement un nouvel AttrakDiff, cette fois sur un prototype et non sur une version développée.
À la découverte des résultats, j’ai presque du mal à y croire : la nouvelle proposition performe mieux que les deux précédentes versions, sur chacun des scores des échelles. Le style du parcours est apprécié, il est perçu comme rapide dynamique et ludique.

Les résultats concluants de l’AttrakDiff

Le travail effectué a porté ses fruits ! Nous sommes confiants en cette version et nous nous sommes assurés de minimiser les risques avant la mise en ligne. À présent nous identifions des lots à sortir progressivement.

Vraiment j’ai relu les résultats pleins de fois, j’ai vérifié qu’il n’y avait pas un souci dans l’outil parce que j’avais peur de croire qu’on avait réussi.

La joie !

Conclusion

Pour nous, l’AttrakDiff a vraiment été un moyen de mesurer la qualité de l’expérience de nos utilisateurs sur des critères que le tracking et la data ne permettent pas de mesurer. En plus de cela, il nous a surtout permis de comprendre les optimisations possibles sur le parcours de souscription.
Suite à ce succès, en plus de nos indicateurs de performances classiques (taux de drop, de conversion etc.), nous avons décidé de mettre en place des AttrakDiff réguliers afin de suivre au mieux l’expérience de nos utilisateurs de façon continue !

Je ne peux qu’être fière de la démarche design que nous avons menée et remercier chaque personne avec qui j’ai eu l’occasion de travailler sur le sujet.

Article co-écrit avec Lucie Pouderoux et Arthur Hun (merci pour les supers illustrations !).

--

--