Comment la data est devenue un élément clé dans la mobilisation de réseaux électoraux ?

La campagne présidentielle de 2016 aux Etats Unis a établi un précédent dans l’utilisation des outils Big Data dans le cadre d’élections nationales. Bien que les démocrates aient commencé à utiliser la data comme outil de démarchage dès 2008, cette campagne a été la première à démontrer l’incertitude de ces méthodes et l’influence que pouvaient avoir les outils sociaux sur la constitution d’une opinion publique. Mesurer l’opinion, la cartographier et la cibler efficacement sont des outils désormais bien maitrisés par la majorité des responsables politiques.

Cependant, malgré une omniprésence inédite de la data dans le débat politique, jamais les études “big data” souvent douteuses n’ont été aussi nombreuses, diffusées sur les réseaux ou instrumentalisées par des partis ou journalistes, l’incertitude semble être devenue une donnée à prendre en compte parmi d’autres dans l’étude de la polarisation dans l’électorat.

Les révélations sur l’implication de la Russie via le biais de médias d’Etat tels que Russia Today dans l’élection, mises en lumière récemment par l’analyse des données fournies par Facebook et Twitter nous interrogent sur le rôle de la data et son utilisation dans la vie politique aujourd’hui. Considérations éthiques, outils d’analyse et questionnement sur la partialité des systèmes de diffusion d’information basés sur la data : comment la data est elle devenue un élément central, voire indispensable, de notre vie politique ? Qu’il s’agisse de campagnes traditionnelles, de politiques d’influence ou d’actions coordonnées de déstabilisation, l’utilisation de la data concerne une multitude d’acteurs aux intérêts et sensibilités propres.

I. Le Data Mining et les outils CRM au service du recrutement d’un électorat

Avec le développement des outils de ciblage par la data à des fins publicitaires et l’apparition de logiciels de marketing direct tels que Salesforce ou Mailchimp, les premières utilisations du CRM pour créer des bases électorales n’ont pas tardé à faire leur apparition avec des logiciels tels que le fameux NationBuilder. La première utilisation décisive du logiciel remonte à la campagne américaine de 2008 où les équipes de Barack Obama ont réussi à identifier la localisation des indécis et des électeurs potentiellement influençables grâce à l’analyse des bases de données des élections précédentes. En ciblant ces électeurs avec du porte à porte, le candidat à réussi à vaincre le républicain John Kerry avec lequel il était au coude à coude depuis le début de la campagne.

Depuis, ces techniques se sont grandement développées et il est possible de cibler beaucoup plus précisément les électeurs en fonction de leur profil socio-démographique, de leur comportement sur les réseaux sociaux, leurs centres d’intérêts et sujets de conversation. Toute la data récoltée sur les réseaux sociaux permet de dessiner des personas et profils comportementaux qu’il est ensuite possible de cibler indépendamment grâce à l’AB testing et de tester les réactions et messages qui se diffusent le plus efficacement. De plus, la maitrise des cookies permet de rediriger effacement les internautes : les électeurs qui placent l’écologie comme valeur politique principale ne recevront pas le même contenu et ne seront pas exposés aux mêmes arguments que ceux qui sont plutôt intéressés par les problématiques de défense.

Méthodologie de ciblage de NationBuilder

En développant de nouveaux outils technologiques et d’analyse, les équipes de campagne se rapprochent de plus en plus du marketing direct et personnalisé tel qu’il est pratiqué par les marques et plateformes numériques. Ainsi, en amont de l’élaboration de son programme politique, Emmanuel Macron a fait appel à la start-up française Liegey-Muller-Pons pour identifier les “déçus de la politique” et recueillir leurs idées grâce à du démarchage en porte à porte. S’il est difficile de quantifier l’impact de cette campagne sur le programme politique qui en découle, il est intéressant de constater l’hyper personnalisation de cette démarche, où le programme est élaboré en fonction des retours des électeurs, des attentes et sujets forts au sein de la population et non uniquement en interne au sein du bureau politique du parti.

Si cette méthode se justifie par une meilleure compréhension de son électorat pour proposer des réponses politiques appropriées, elles posent de plus en plus de questions et leur utilisation peut rapidement s’avérer assez populiste. Analyser et comprendre la data revient aujourd’hui à détenir une certaine forme de pouvoir sur cet électorat et peut être instrumentalisé idéologiquement.

II. Succès et échecs de l’analyse du Big Data

S’il est intéressant d’identifier son électorat à des fins de démarchage, les acteurs de la statistique se sont rapidement penchés sur l’utilisation du big data pour améliorer la fiabilité et la représentativité des études. Certains instituts de sondage politique tel Elabe, qui intègrent désormais des données issues des réseaux sociaux pour pondérer leurs études, ont proposé des résultats légèrement plus fiables que les autres instituts au cours de la campagne présidentielle.

Cependant, si la plupart des instituts de sondage ont intégré les données issues des réseaux sociaux avec des méthodologies précises et rationalisées, il n’a jamais été aussi simple de publier des sondages avec des méthodologies plus ou moins scientifiques.

Sondage Filteris publié avant le 1er tour de l’élection

Ainsi, les pseudo-études tirées de Google Trends ont pullulé tout au long de la campagne et se sont très souvent révélées totalement fausses voire mensongères, comportant de nombreux biais d’analyse. Cette utilisation de la data peut s’avérer d’autant plus dangereuse lorsqu’elle est instrumentalisée par des responsables politiques pour propager des idées dans l’opinion politique ou masquer leur influence réelle.

Le bureau d’études Filteris a notamment beaucoup fait parler de lui pendant l’élection en mettant en avant une méthode d’analyse des réseaux sociaux présentée comme révolutionnaire. Ayant vu venir la victoire de François Fillon à la primaire des Républicains, l’institut a publié des sondages donnant le candidat gagnant tout au long de la campagne, justifiant la thèse des “votes cachés” mise en place par les cadres du parti pour camoufler son effondrement dans les intentions de vote. Cependant, lorsque des journalistes se sont penchés sur cet institut et ses méthodes, il s’est avéré que les fondateurs, originaires de Sablé sur Sarthe, étaient des proches de la famille Fillon, révélant ainsi la tentative de manipulation de l’opinion.

Egalement, avec des outils tels que Linkfluence et la visualisation des data en réseau, il est possible pour les équipes de campagnes de visualiser leurs réseaux de communication, leur sphère d’influence et de tester quasiment en direct les réactions des réseaux sociaux à des propositions pour dresser un état de lieu de l’opinion concernant des sujets précis. Ainsi, à la manière d’une plateforme, les campagnes se rationalisent et perfectionnent de plus en plus dans le traitement de leur data et leur relation avec l’usager.

Les responsables politiques et leurs équipes de campagne ont désormais bien compris l’intérêt d’utiliser ces études et des données chiffrées pour mettre en avant leur programme, discréditer leurs opposant ou imposer des idées dans le débat public.

III. La data, nouvel arme de propagande ?

Si il est possible d’utiliser la data comme outil à des fins politiques, l’élection de Donald Trump a été un choc révélateur sur la façon dont, utilisée de façon consciente et pour servir des intérêts géopolitiques, les réseaux peuvent être une arme dévastatrice. En intégrant des théories de psychologie comportementale à des modèles d’analyse de la data classiques, il a été possible de cibler précisément des internautes susceptibles de relayer les fakes news pour assurer leur diffusion à grande échelle. Laura Galante, spécialiste de la cybersécurité, explique la façon dont ce modèle a sciemment été pensé et mis en place par la société Cambridge Analytica.

Conférence TED de Laura Galante, Networks security analyst

Afin de mieux comprendre comment ce ciblage a été effectué, David Caroll, professeur de design des médias, a demandé à la société de lui transmettre ses données personnelles utilisées. Les données envoyées reflètent un ciblage sociologique inquiétant de précision et mettent l’accent sur le ciblage de populations “défavorisées’’, au faible statut socio-culturel. Ainsi, la dangerosité de ce modèle est d’autant plus frappante qu’elle se base sur l’incrédulité et le manque de recul de certains individus, plus aptes à propager des fake news par une culture du complotisme et de la haine des médias. A une semaine du vote, le reach organique de ces posts a dépassé celui des médias “traditionnels”, venant répandre dans l’opinion publique ces idées et les normaliser. Le scandale du Pizza Gate illustre comment des idées fausses ont pu se propager au point de devenir le discours dominant dans certaines sphères.

Le journaliste Raphael Satter illustre bien la perversité de ce modèle par son étude des réseaux de diffusion des fake news durant la campagne américaine. Spécialiste en journalisme économique, il est parti à la rencontre d’une population de jeunes hackers résidant dans un petit village macédonien. En diffusant les fake news grâce à la création massive de bots, nombre des habitants de ce village pauvre ont fait fortune au cours de la campagne et le journaliste décrit sa stupeur face aux sommes gagnées par ces informaticiens dont le mode de vie a évolué brutalement.

L’utilisation du big data est un outil formidable pour la mobilisation des électorats et leur quantification qui permet de mieux communiquer et faire circuler les idées. Cependant, entre de mauvaises mains et sortie de son cadre scientifique et statistique, la data peut être une arme de manipulation de l’opinion extrêmement puissante. Bien que les réseaux sociaux aient été interpellés et commencent à mettre en place des gardes fous, en partenariat avec des grands médias notamment, et que les journalistes ainsi que l’opinion publique aient été sensibilisés à la question de la neutralité des usages du big data, cet enjeu est amené à prendre une place centrale dans les élections à venir et, plus globalement, dans la façon dont l’opinion publique se construit.