Des chiffres et des lettres
Analyste ou opérationnel, CTO d’une petite structure ou responsable d’équipe marketing au sein d’un grand groupe, vous en faites l’expérience au quotidien : les règles du jeu (de données) ont changé. Dans les années 90, vous aviez peut-être accès à un progiciel primitif capable de stocker quelques données critiques. Dans les années 2000, vous disposiez sans doute d’un SI adapté, avec une représentation (rigide mais acceptable) de vos processus métier et un ensemble de données plus étoffé. Aujourd’hui ? Vous maintenez un data lake, sur site ou dans le cloud, avec des sources de données multiples et hétérogènes.
Cause ou conséquence ? Toujours est-il que les enjeux et les attentes ont drastiquement changé avec l’émergence de nouvelles technologies et si l’expertise technique et scientifique restent indispensables à une mise en application réellement efficace, l’intégration de ces nouvelles méthodes à la pratique n’en est que plus totalement transformée. En particulier, l’analyse des données quantitatives traditionnelles n’est désormais plus suffisante.
Si divers métiers peuvent bénéficier de l’exploitation de données spécialisées (géolocalisation, transactions, graphes d’influence…), le dénominateur commun de l’évolution des pratiques se trouve ailleurs : nous sommes en effet résolument entrés dans une période visant à l’exploitation de toute information, quelque soit sa forme, à commencer par la plus fréquente, le texte. Non structuré, non normé, non validé, volumineux et présentant un taux d’erreur élevé, le texte a longtemps été considéré comme une donnée de faible valeur parce que difficilement exploitable. L’avènement de nouvelles technologies (bases de données nosql, recherche approximative), l’amélioration de la performance des outils existants en matière de speech to text et d’OCR, et l’émergence de nouvelles sources (réseaux sociaux, enregistrements numériques) ont conduit à un changement radical de perspective et permis aux entreprises de réaliser que des trésors d’information se cachaient au sein de ces données.
Siri, trouve moi un projet d’analyse à proximité
Depuis, les projets d’analyse sémantique se multiplient et, avec eux, la culture associée gagne du terrain. C’est toute la chaîne de traitement qui évolue en conséquence, de la philosophie du recueil de données (multiplication des questions ouvertes dans les études) jusqu’à l’intégration aux systèmes d’information. De manière plus révolutionnaire encore, tout devient source d’information : chat, mails, posts… externes ou internes. Les algorithmes, les outils et les rendus s’améliorent pour répondre à ces nouveaux besoins, tandis que les équipes développent des expertises internes, des paramétrages de référence, des réflexes. Bref, les métiers s’habituent progressivement à l’exploitation des données textuelles et les intègrent à leurs analyses et même à leur interaction commerciale: « Tous les clients ne nous écrivent pas. » est désormais une angoisse récurrente de nos utilisateurs, qui cherchent à couvrir un périmètre de données sans cesse grandissant.
Cette accélération se traduit également par la recherche de nouvelles sources. La donnée textuelle ne se limite en effet pas à l’écrit. Un nombre croissant d’entreprises se tournent aujourd’hui vers les données audio et des efforts sont déjà faits pour valoriser celles qu’il est possible de capturer aisément : recueil d’enquêtes à l’aide d’un micro, échanges téléphoniques (vente ou SAV par exemple). Les objectifs et contraintes de l’exploitation de ces nouvelles sources viennent alors s’additionner aux problématiques précédentes: comment adapter la mise en oeuvre du RGPD ? Comment identifier le ton de la voix et plus seulement le contenu, analyser séparément les voix lors d’un échange, prendre en compte la qualité de l’enregistrement, limiter l’impact du bruit…
Constatons enfin que, même si ces questions ne trouvent pas toutes des réponses satisfaisantes dans l’offre actuelle, les technologies nécessaires à la réalisation d’un projet de cette nature existent déjà ; les outils capables de réaliser une transformation « speech to text » sont nombreux et proposent un panel de fonctionnalités important, comme les jeux de langues pris en charge, le fonctionnement sans calibrage à des voix particulières, la possibilité de traiter des volumes importants, un reporting intégré… Pour choisir l’outil de « speech to text » le plus adapté, le mieux est encore de les comparer sur un jeu d’enregistrements représentatif. Dans le pire des cas, il existe de multiples comparatifs des outils les plus célèbres sur le web (Google, IBM, Microsoft…).
Le besoin est complexe, mais l’audio guide
L e décor est posé, mais qu’en est-il de la mise en place d’un vrai projet industriel ? k-mino a eu l’occasion de se confronter à une telle expérimentation dernièrement. L’un de nos clients disposait en effet d’un ensemble d’enregistrements de conversations téléphoniques entre vendeurs et clients et souhaitait les analyser afin d’en tirer des enseignements opérationnels. Nous vous livrons ici notre retour d’expérience, afin de vous guider dans la mise en place de projets similaires et de vous permettre d’éviter les principaux écueils d’une expérimentation de cette nature.
Premières constatations : les enregistrements d’échanges présentent de nombreuses spécificités (plusieurs interlocuteurs, qui peuvent parler en même temps, utiliser des vocabulaires, accents, formules et tons différents) et le medium téléphonique introduit également ses propres biais, notamment en termes de qualité. Le format relativement contraint présente néanmoins un avantage: puisque les interlocuteurs doivent se comprendre pour échanger, nous pouvons inférer qu’il existe des mots ou phrases clés à ne pas rater (sous peine de rendre la conversation largement inexploitable) ; il ne faut cependant pas sous-estimer les risques induits par un travail sur la base seule des enregistrements audio des conversations et non leur retranscription (qui introduiraient une expertise humaine dans le post-traitement et la validation).
Une discussion technique de la mise en place d’une plate-forme automatisée de “speech to text” sort du cadre de ce billet. Mais disons-le : les premières étapes, de l’enregistrement à la récupération d’un texte, sont aisées à franchir. Peut-être trop aisées ! La facilité de production d’une donnée intelligible (quoique probablement fortement bruitée) tend à confirmer les fantasmes que le client nourrit au sujet du projet.
Passée cette étape de transformation des données, nous nous ramenons au cas plus général d’un projet d’analyse sémantique classique. Pourtant, force est de constater que les étapes précédentes peuvent avoir un impact sur les résultats, et c’est ce que nous avons pu constater avec les données de ce projet en grandeur réelle.
Concrètement l’analyse sémantique sur le corpus transcrit a permis de réaliser et agréger différentes approches :
- l’exploitation des nomenclatures internes du client (noms des produits, des entités géographiques, spécificités de l’offre de la marque…) afin d’identifier les commerciaux ou clients y faisant référence (en autorisant parfois certains écarts aléatoires au niveau de la retranscription) ;
- plus généralement, un certain nombre de mots-clés ou expressions correspondant à des problématiques du marché (ce que nous appelons des « règles sémantiques », expression regroupant à la fois des expressions complètes, à trous, des formules aux multiples variantes, y compris après lemmatisation et racinisation, et des tournures complexes) ;
- plus largement encore, un topic modeling a permis d’identifier des thèmes ou sujets non anticipés par notre client, par la suite également convertis en règles sémantiques dans un but d’uniformisation et facilitation de la prise en main opérationnelle ;
- enfin, une fois toutes les règles sémantiques arbitrées, débattues et validées, le besoin s’est transformé en pérennisation des règles construites, via un outil de navigation dans le corpus intégrant la possibilité de retoucher les règles, les compléter et extraire des rapports mis à jour.
Fantasmes et dépendances
L e projet a avant tout pour objectif d’alimenter le SI interne de l’entreprise à l’aide de données relatives aux échanges entre commerciaux et clients. La capture de cette information permet d’imaginer de nombreuses applications : on pourra ainsi alerter précocement dans le cas de problèmes opérationnels (détection d’un changement brutal du sentiment des retours clients), permettre des analyses de ROI sur les campagnes marketing, voire automatiser la détection de sources d’amélioration de l’offre.
Une telle démarche ne nécessite pas obligatoirement une qualité parfaite de retranscription (puisque ce sont essentiellement les conclusions d’analyse — robustes face à un bruit contrôlé — qui sont mises entre les mains du client, et non les transcrits automatisés). Et il convient de le garder à l’esprit car une comparaison trop attentive avec les sources présente le risque de créer des frustrations, d’autant plus grandes que certaines promesses sur le marché laissent espérer la même qualité sur des enregistrements téléphoniques dans toutes les langues. On court alors le risque de pousser vers le surapprentissage, de multiplier à l’infini les POC afin de tendre vers des promesses irréalistes de qualité et, ce faisant, de faire exploser les budgets !
Le retour à l’intention originelle est en définitive ce qui légitime ce type de projets. Née de la certitude légitime que toute information retirée de ces sources riches peut améliorer le produit ou le service délivré, et que les outils d’agrégation de sources et d’analyse sauront exploiter, les tenants du projet doivent revenir à cette conviction initiale.
Ces démarches correspondent à l’initialisation d’une pratique amenée à se généraliser, dans le cadre d’une culture encore balbutiante et de besoins bien spécifiques. Ces besoins vont évoluer en même temps que la prise en compte de ces données dans les process de l’entreprise, et il est non seulement acceptable, mais bénéfique d’imaginer que stratégie, tactiques, contraintes opérationnelles et objectifs conduiront à une remise en cause des choix réalisés initialement.
C’est dans cet état d’esprit que nous avons conçu des outils modulaires, capables d’évoluer conjointement avec l’entreprise sur ses sujets.
Thèse, antithèse, synthèse
Cette expérimentation a été un vrai succès et a conduit à l’émergence d’intuitions opérationnelles réellement nouvelles. Mais l’histoire a eu de multiples rebondissements, des phases optimistes correspondant à la résolution de problèmes, au contournement d’obstacles ; et des moments de doute associés à la découverte de nouvelles frustrations. L’expérience de k-mino a permis de développer une communication contra-cyclique (pour reprendre un vocabulaire économique) afin de gérer les fantasmes du client, comme ses frustrations, et de l’accompagner dans une démarche rationnelle d’analyse de valeur. La conviction initiale de la richesse de ces données a permis de garder le cap tout au long du projet, et de maintenir un message fort, tandis que le “kit” étendu d’outils techniques et scientifiques dont dispose k-mino permettait de s’adapter aux nouvelles exigences, idées, et réactions du client et de lui proposer rapidement des solutions modulaires adaptées.
Ce type de projet, à la fois industriel et expérimental, s’adosse à des données et des outils différents mais doit également intégrer des attentes, des pratiques et des besoins nouveaux. Notre recette ?
- ne pas considérer que le projet est uniquement technique, car c’est avant tout la découverte pour le client d’une nouvelle donnée, voire d’un nouveau type de données ;
- une communication et un accompagnement adaptés ;
- un panel d’outils et d’expertises suffisamment large pour être réactif et apporter des solutions ;
- la négociation d’une certaine marge de manœuvre dans l’expérimentation afin d’avoir l’opportunité de répondre aux attentes et d’aller au bout d’un processus de fine tuning essentiel.
Pour plus d’information : www.k-mino.com