[Se repenser à l’heure du prêt-à-penser] Quand Le Monde, Facebook et Google partent en croisade contre la post-vérité

Sur le papier, l’idée est séduisante : séparer le bon grain de l’ivraie, extraire du flot informationnel les fausses informations, accréditer les sources dites fiables.

Telle est la vocation du nouveau dispositif du Monde intitulé décodex, outil qui signale les sites fiables ou non fiables que vous visitez, grâce à un add-on disponible sur les principaux navigateurs et un moteur de recherche.

5 classes, 5 castes ?

Le système repose sur un annuaire de 600 sites qui classe les sites indexés en 5 catégories :

  • Pastille grise : “les exclus” (classe 0 dans le code — 30 sites au 2 février 2017), catégorie dans laquelle on retrouve les plateformes sociales (youtube, twitter, linkedin, facebook) de blogs (notamment celles adossées à des médias traditionnels comme les blogs du monde, les blogs du monde diplomatique, les forums de doctissimo, les blogs de Marianne), 9gag, change.org, les-forums-de-jeuxvideo-com, mais aussi wikipédia (j’y reviendrai plus tard)
  • Pastille bleue :“les satiriques” (Classe 1, 68 sites) : cette catégorie regroupe les sites satiriques, parodiques , avec le Gorafi mais aussi des sites d’informations parodiques régionaux : le jurafi, la deche du midi, ou encore craesh-aerien-aero (une erreur de casting sans doute, car la majorité des informations de ce site consacré à l’aviation sont sérieuses)
  • Pastille rouge : “les bannis” (Classe 2, 169 sites), quelques exemples en vrac : sante-magazine, avortement.net, voltairenet, soutien-national-en-bleu-marine, toulouseinfos.fr sante-nutrition, lesobservateurs.ch, je-soutiens-vladimir-poutine, ivg-net…
  • Pastille jaune : “les bordelines” (classe 3, 114 sites) quelques exemples en vrac : jeanmarcmorandini.com, boulevard voltaire, doctissimo, footmerctao, topito, tariqramadan.com, russia today, public, oumma, minute
  • Pastille verte : “les élus” (Classe 4, 209 sites), catégorie dans laquelle on retrouve le monde, le point, libération, l’humanité, plus globalement tous les médias en conformité avec la pensée collectivement admise ou acceptable (idée qui recoupe le concept de sphère du consensus de Daniel Hallin ou d’Overton window).

Un flou méthodologique

Le système repose sur un annuaire qui classe les sites indexés en 5 catégories.

Premier point notable : le procédé se place au niveau de la source (du média) et non du contenu (de l’article) ou de l’auteur (du journaliste).

Évidemment, cela comporte des biais, en particulier celui de ne pas pouvoir refléter toutes les nuances de qualités rédactionnelles d’un même support, d’un journaliste à l’autre ou d’un article à l’autre.
Pour autant, c’est sans doute le niveau le plus pertinent pour ce type d’outil, car numériquement le corpus est plus limité que pour les articles, et qu’il permet une mémorisation de la fiabilité ou non d’une source.

Deuxième point : malgré les apparences, le classement en 5 classes n’est pas véritablement un système d’échelle (du plus ou moins fiable), mais cache une classification en fait assez binaire, incarnée par un système de whitelist / blacklist, avec une classe intermédiaire pour les bordelines, une classe pour les inclassables et une classe pour les médias satiriques.

Un système d’échelle (comme le Pagerank de Google) n’aurait-il pas été moins binaire car plus progressif mais aussi plus amoral ?

Troisième point : cet annuaire semble être géré “manuellement” par des humains, et non par des algorithmes, sur un modèle d’autorité plutôt issu des médias traditionnels (gatekeeping éditorial).

Problème : si l’on peut voir le résultat (il serait d’ailleurs intéressant de faire un article sur wikipédia avec la liste des sites et leurs classes) et le système de classification, on ne sait pas grand chose sur la méthodologie : quelles sont les personnes qui participent à la classification, sous quelle forme (individuelle, participative, “démocratique”), avec quelle grille de critères ?

Le principal indice méthodologique sur le site manque de précisions :

“Notre seul critère a été leur respect des règles journalistiques (croisement des sources, vérification, etc.).”

Qu’est ce qu’il y’a derrière le “etc” ? Qu’entend-on par “vérification” ?

Finalement le seul élément méthodologique précis communiqué est le “croisement des sources”. Mais comment l’équipe des décodex procède pour évaluer le croisement des sources sur un corpus d’articles si gigantesque ?

Quelle sera la portée de cette initiative ?

Évidemment, on peut facilement imaginer que ce media-checking sera effectué avant tout par des personnes déjà sensibles aux questions des médias, même si cet argument ne suffit pas à remettre en cause l’utilité du service.

Plutôt que le clivage fausses et vraies informations, ce type d’outil ne risque t’il pas de renforcer un clivage entre les personnes capables d’avoir un recul sur l’information (et donc potentielles utilisatrices de l’application) plutôt issues des classes aisées et ayant reçu un niveau d’éducation assez élevé, et celles qui n’ont pas eu le background éducationnel ou social pour avoir ce recul ?

Les personnes qui “croient” aux fausses d’informations n’iront sans doute pas installer le plugin, même si l’on peut également imaginer que ce media-checking pourra aussi devenir un outil dans l’enseignement secondaire et supérieur.

Autolégitimitation de légitimer

Quelle est la légitimité du monde à proposer ce dispositif ?

Si Le Monde est perçu -et se revendique- comme le “quotidien de référence” en France, il n’est pas indépendant (comme la grande majorité des grands médias en France) et détenu par des groupes / personnes ayant des intérêts commerciaux (Xavier Niel, Pierre Bergé et Matthieu Pigasse).

Par ailleurs, le Monde se place ici non seulement dans une posture d’évaluateur, mais aussi d’accréditeur de la fiabilité des média, réalisant un double acte performatif (Le Monde devient légitime pour accréditer les médias, les médias classés deviennent accrédités ou discrédités).

Etant lui un même média indexé dans l’annuaire (dans les white-listés bien évidemment), le Monde peut-il être juge est partie ?

Enfin et même s’il est perçu et se revendique comme un média de “référence”, le monde n’est pas pour autant “neutre” (quelle personne, organisation, société peut se revendiquer neutre ?). Le monde est un quotidien marqué par une idéologie : pro-européenne, pro-mondialisation, naviguant autour d’un social-libéralisme.

Ce n’est pas parce que cette idéologie est consensuelle, située au plein centre de la pensée collectivement légitime qu’elle n’en est pas une.

Et ce n’est pas parce que cette idéologie n’est pas exprimée, revendiquée, incarnée et vécu individuellement ou collectivement par celles et ceux qui font ce média que cette idéologie n’existe pas (Je n’affirme donc pas du tout ici que les journalistes du Monde se référent tous à cette idéologie).

Pour les trois raisons évoquées plus haut, il est clair que Le Monde n’est pas légitime pour proposer cette classification.

Au risque d’en choquer certains, je trouverais quasiment moins illégitime que ce type d’outil soit proposé par Google, car même s’il s’agit également d’une entreprise commerciale et que Google n’est pas pour autant “neutre”, il aurait au moins l’avantage de ne pas être juge et partie comme c’est le cas ici avec Le monde.

Mais le plus cohérent serait sans doute, si ce type d’outil s’avérait pertinent, qu’un organisme un minimum “indépendant” (personne n’est parfait !) puisse proposer ce type de dispositif (association, observatoire,…).

Les décodeurs, néo gatekeepers ?

La classification en 5 classes réalisée par un processus dont on ne connaît pas la méthodologie pose d’autres questions : un média peut-il passer d’une classe à l’autre et ce dans les deux sens ?

Le principal problème de ce type de classification est que l’on prédéfinit par défaut des admis et des exclus, en oubliant de fait les nuances mais aussi les évolutions : un média peut changer de ligne éditoriale et donc éventuellement de catégorie.

Pour les sites non présents dans l’annuaire, qui forment la majorité des sites d’informations, un formulaire “Vérifier ce site” est présent pour que le visiteur signale le site.

“Ce formulaire vous permet de nous communiquer l’adresse d’un site d’information dont vous ne connaissez pas la fiabilité. Nous nous engageons à examiner ce site et à l’ajouter à notre liste.”

Il ne s’agit donc pas du tout de système participatif dans lequel le visiteur peut signaler un contenu non approprié qui va directement influencer la visibilité et l’accessibilité de la source, comme c’est le cas sur facebook et sur la plupart des plateformes sociales (même si cette approche participative est gérée par des algorithmes dont on ne sait pas grand chose). Il s’agit simplement d’une demande de classement, responsabilité ensuite pour Le décodex de répertorier et classifier le site dans l’une des 5 catégories.

Le système du décodex fonctionne en fait sur le modèle traditionnel médiatique : c’est la sélection et la curation réalisées par les humains ( des journalistes ?) qui cadrent le corpus médiatique légitime, non plus à l’échelle du contenu (agenda-setting), mais ici à l’échelle du média : on pourra donc parler de media-setting.

Paradoxalement, on retrouve derrière ce modèle qui dit évaluer par les faits (fact-checking) un modèle traditionnel de gatekeeping basé sur l’autorité, celles de journalistes, et du coup de leur opinions (ce qui n’est pas grave en soi, mais qui est toujours gênant quand le procédé se réclame d’un modèle opposé).

Au fond, cela n’est pas tellement étonnant : Le Monde reste ici dans un modèle médiatique pré-digital, à l’opposé des processus d’accessibilité à l’information des plateformes sociales (facebook, twitter) qui, couplées avec des algorithmes, fonctionnent sur l’input des utilisateurs (mon propos ici a valeur de constat et non de jugement).

Pour aller plus loin, on peut même se demander si Le Monde, perdant son statut de média de référence avec les bouleversements induits par le digital, ne trouve pas avec cette initiative un ultime sursaut de restaurer ce statut, non plus via sa ligne éditoriale mais en s’auto-imposant légitime dans un rôle d’évaluateur et d’accréditeur des médias, c’est à dire en se plaçant “au dessus” des autres médias.

A la recherche du bien ou du vrai ?

Sur le plan moral, les auteurs du décodex se défendent de se situer à ce niveau : “Il ne s’agit donc pas d’un jugement de valeur pour distinguer des “bons” et des “mauvais” sites. 
Oui, mais comment affirmer cela alors que le dispositif classe les sites sur une méthode binaire, sur un modèle qui s’apparente tout de même très fortement à un prisme inclusion / exclusion, en prédéfinissant des catégories de médias fréquentables et d’autres dont il faudrait se méfier, ou même s’abstenir de consulter ? Affirmer ne suffit pas à infirmer.

L’idéologie derrière cette démarche assimile le vrai au bien, et le faux au mal. Encore une fois, ce n’est pas grave, notre société fonctionne sur ce modèle depuis plus de 2000 ans (Platon), mais se défendre d’être sur un plan moral est tout de même un peu gênant alors qu’on est en plein dans la morale.

Médias neutres / médias militants

L’identification de médias militants (dans les 114 sites classés jaune -borderline-, on retrouve 24 occurrences du mot “militant”) accréditent de fait ceux qui ne sont pas identifiés comme tels comme médias neutres, même si le mot “neutre” n’est pas écrit.

Si certains ont critiqué un traitement à géométrie variable sur cette question, la démarche d’identifier les médias militants semble intéressante.

Mais ce n’est pas tant le fait de ne pas qualifier Le figaro ou L’humanité de militant qui pose problème que le fait d’établir sans le dire avec la catégorie verte une catégorie de médias neutres, au-dessus de tout soupçon, et dont la fiabilité ne serait plus à interroger.

Le risque est de fournir un prêt-à-penser médiatique qui dispense le lecteur d’analyse et de sens critique.

La description de la catégorie verte “ N’hésitez pas à confirmer l’information en cherchant d’autres sources fiables ou en remontant à son origine” offre la possibilité d’un doute, mais ne suffit pas en elle-même à renverser le modèle binaire imposé par la classification.

L’exemple lanutrition.fr

Le site lanutrition.fr, consacré comme son nom l’indique à la nutrition, est classé dans la catégorie borderline.

Ce site est-il fiable ?
Ce site peut être régulièrement imprécis, ne précisant pas ses sources et reprenant des informations sans vérification. Soyez prudent et cherchez d’autres sources. Si possible, remontez à l’origine de l’information.

Étant moi même lecteur de ce site, il est extrêmement facile de vérifier que comparé à d’autres média, la plupart des articles sont non seulement ponctués de références assez précises, mais également qu’un effort tout particulier est fait pour mettre les informations brutes en perspective avec différents avis d’experts. Exemple ici.

La description du décodex indique “Un site animé par le journaliste scientifique Thierry Souccar, qui publie également des ouvrages avec la maison d’édition portant son nom. Le site Internet prend position contre la vaccination avec des arguments erronés. Le site relaie les thèses d’Henri Joyeux, chef de file des « anti-vaccination », radié de l’ordre des médecins en 2016, notamment pour « des manquements d’une extrême gravité au code de déontologie.”

Cette description a le grand avantage de pouvoir mettre en évidence le cheminement intellectuel menant à l’excommunion : puisque Henri Joyeux a été radié de l’ordre des médecins, et puisque lanutrition.fr “relaie” ses “thèses”, le média n’est pas accrédité.

Le chemin est un peu rapide et le raisonnement fort tortueux. Interrogeons-le.

Vérification par les faits et arguments d’autorité

On voit bien ici l’une des méthodologies de l’exclusion du débat public, qui est d’ailleurs antérieure au factchecking mais auquel ce dernier a souvent recours, qui utilise très souvent l’argument d’autorité (ici l’ordre des médecins) pour accréditer des propos et donc discréditer les personnes qui ont soit un avis contraire, soit, encore mieux, qui sont excommuniés par cette même autorité.

Il y a même dans cet exemple un double argument d’autorité, puisque non seulement l’ordre des médecins a radié le docteur Henry Joyeux, mais de plus la critique de la politique publique vaccinale en France (et non comme il est décrit dans la description du décodex des propos anti-vaccination) s’oppose à une deuxième autorité, en l’occurrence gouvernementale (ministère de la santé).

Pourquoi prendre position pour critiquer la politique vaccinale du ministère de la santé français devrait être discrédité ?

Et -et ce n’est pas la même question- pourquoi un média qui relaie cette position devrait lui aussi être discrédité dans sa globalité ?

Des études sérieuses accréditent pourtant les prises de position du professeur Joyeux sur les campagnes de vaccinations gouvernementales.

Mais parce qu’il est toujours possible d’opposer des faits à d’autres, surtout lorsque des liens de causalité rentrent en ligne de compte, le fact-checking utilise l’argument d’autorité pour contourner cette subjectivité et parvenir au bout du processus : classer les média, et donc finalement créditer ou discréditer, qualifier ou disqualifier (sans forcément que cela soit volontaire).

Affiliation par l’autorité

En fait, cette logique fonctionne sur une affiliation par l’autorité, qu’elle soit accréditante ou discréditante : toutes les personnes ou organisations se situant dans la pensée collectivement acceptable ou légitime (sphère du consensus) ou représentant une autorité morale ou administrative (gouvernement, universitaires) peuvent potentiellement donner du crédit (autorité accréditante).

Sur la même logique, tous ceux qui sont très éloignés de la sphère du consensus sont potentiellement pourvoyeur de discrédit (autorité discréditante).

Il suffit au défenseur ou à l’auteur d’une idée d’avoir eu un lien (affiliation) quelconque avec les organisations ou personnes situées loin de la sphère consensuelle pour qualifier cette idée de mauvaise (et donc de fausse, toujours grâce à l’assimilation morale / vérité).

Cette affiliation peut s’incarner par différents moyens :

- Affiliation d’approbation (soutien), ce qui est sans doute le procédé le moins malhonnête, mais qui oublie que le soutien d’une personne à l’idée d’une autre ne signifie pas adhérer à l’ensemble de la pensée de cette personne, et qui ne prend pas en compte l’évolutivité de la pensée.

- Affiliation de citation (référence) : une personne a cité, mentionné une autre sans approbation, mais cela peut suffire à faire fonctionner l’affiliation discréditante.

- Affiliation d’interaction : X a rencontré Y dans un meeting du Parti Z, donc X soutient Y, ou X soutient le parti Z. Il s’agit du modèle d’affiliation le plus fallacieux car bien évidemment une rencontre ou un échange ne signifie en rien soutien ou connivence entre les deux protagonistes.

Il est d’ailleurs intéressant de noter que les personnes qui sont les plus éloignées de la sphère consensuelle sont de fait discrédités. Pour ces personnes ou ces organisations, il n’est pas nécessaire de vérifier leurs propos car ils sont par défaut non-qualifiés, car dangereux, donc faux (et non l’inverse).

Par contre, et c’est là un terrain de jeu majeur du fact-checking, l’exercice de rattacher l’auteur d’une idée ou d’un propos à une autorité prend tout son sens.

Au plus cette autorité est au centre de la sphère consensuelle, au plus son auteur sera sera facilement crédité. Au plus elle s’écartera de celle-ci au plus elle sera discrédité.

Il faut aussi souligner que le discrédit porte plus souvent sur la personne que sur l’idée, ou que du moins le crédit / discrédit d’une idée se réalise par son auteur (via son affiliation avec une autorité).

L’inclassable Wikipédia

Abordons maintenant le cas wikipédia. Le classement de l’encyclopédie collaborative dans la catégorie grise du décodex est à première vue étonnant.

Attention, ce site n’est pas une source à proprement parler ou sa fiabilité est trop variable pour entrer dans nos critères. Pour en savoir plus, cherchez d’autres sources et remontez à l’origine de l’information.

Il est évident que wikipédia ne rentre pas dans les deux catégories de cette classe. L’encyclopédie collaborative est bien évidemment une source d’information majeure (par le grand public, les médias, les élèves et étudiants), dont les contenus sont eux-mêmes sourcés (c’est d’ailleurs un des principes de base de la contribution), et la fiabilité de ses contenus est équivalente à des encyclopédies classiques.

Toute personne qui a un minium contribué à wikipédia sait combien il est difficile d’éditer un article sans faire référence à une source identifiée et fiable et que les débats sur l’onglet “discussion”, parfois allant jusqu’au vote de la communauté, sont exigeants.

Nous l’avons vu au début de ce post, “le croisement des sources” est le seul critère précis communiqué par les décodeurs. Or s’il y a bien un média ou celui-ci existe, c’est bien sur wikipédia (sur l’article et sur l’onglet discussion).

L’attribution de wikipédia à la catégorie grise par le décodex n’est au final pas si étonnante que ça, tant les deux modèles sont opposés (gatekeeping traditionnel pour le monde, autorégulation participative pour wikipédia).

Pourtant, s’il y a un bien un média à l’heure actuelle qui peut permettre d’apprendre et développer le sens critique, c’est bien wikipédia.

Participer à wikipédia, c’est se confronter à des personnes ayant des avis et idéologies différentes, parfois opposées. Cela débouche la plupart du temps sur des synthèses plutôt équilibrées (c’est d’ailleurs fascinant de le constater), dans lesquelles les sources jouent un rôle clé.

Partant de la contribution participative et collaborative (et donc de fait idiosyncrasique), mais reposant sur la fiabilité des références, wikipédia réussit le formidable pari de produire de la connaissance de qualité, stable et sur un corpus très large.

Se repenser à l’heure du prêt-à-penser.

On le voit, si l’idée du décodex est séduisante, son principe est très délicat, son application complexe, et son auteur illégitime. Tout cela explique les critiques acerbes dont ont été la cible le service de media-checking dès son lancement.

En voulant éclairer les lecteurs sur les médias militants / neutres, fiables / non fiables, le risque est grand de promouvoir un prêt-à-penser médiatique, inscrit de surcroit dans une idéologie de classe dominante, ou du moins dans une pensée collectivement légitime.

Le risque potentiel de cet outil est de renforcer le clivage bons médias / mauvais médias, bonne pensée / mauvaise pensée, une dialectique sur laquelle des politiques comme Trump ou Le Pen surfent allègrement.

Un décodex qui me semblerait plus pertinent serait un décodex qui conserve la description, qui précise et contextualise sans disqualifier, mais délaisse la classification en catégories (sauf peut-être pour les médias satiriques, la classification est dans ce cas pertinente car binaire et sans équivoques), mais surtout porté par des acteurs ou organisations plus indépendants : un infodex plûtot qu’un décodex.
La transparence de la méthodologie. indispensable, devra être un préalable.

Quand les GAFA sous-traitent le fact-checking…aux médias

Accusés au mieux de colporter les fausses informations et au pire d’être responsable de l’élection de Trump (il faudrait plutôt d’ailleurs dire : de la défaite de Clinton), les GAFA travaillent actuellement sur cette problématique, avec des solutions plus participatives, conformément à leur modèle.

Pour lutter contres les fake news, facebook a annoncé en janvier un changement sur son algorithme : les contenus qui seront cachés par les utilisateurs dans leur flux seront considérés comme peu “authentiques”.

Le choix de cette terminologie est extrêmement intéressant, car ainsi facebook va au-delà de la disqualification des fake news, en appréhendant l’ensemble des raisons qui pourraient faire qu’un contenu n’est pas authentique (traduire “intéressant” pour le lecteur) : spam, contenus enfreignant les CGU…

En plus de ce dispositif, facebook a annoncé plus récemment l’ajout en France d’une nouvelle raison de signalement d’un contenu : “It’s a fake news story”.

Les signalements sont ensuite pris en charge par un consortium de médias sélectionnés (l’AFP, BFMTV, L’Express, France Médias Monde, France Télévisions, Libération, Le Monde et 20 Minutes) qui devra vérifier l’information en question. Si celle-ci est qualifiée de “fausse”, cela sera signalé sur facebook, directement sous le post.

Comme pour le décodex, si le mode d’emploi est communiqué, la méthodologie de traitement ne l’est pas : aucun indice méthodologique n’est donné, là ou le décodex a tout de même tenté de les expliciter.
C’est d’ailleurs une pratique qui est courante dans le digital : communiquer le mode d’emploi et le qualifier de méthodologie permet de ne rien dire sur la méthodologie.

Alors que la première initiative de facebook impacte l’accessibilité au contenu, cette dernière fonctionnalité n’impacte pas directement la visibilité du contenu signalé, même si facebook annonce timidement que “la visibilité de ces publications pourra être réduite dans les fils d’actualité des utilisateurs” (l’utilisation du futur comme un conditionnel a l’avantage de ne rien expliciter).

A l’instar du décodex, on est donc ici non pas dans une régulation de l’accessibilité et de la visibilité mais dans un processus d’information et de signalement.

Fait intéressant : alors que le décodex se place au niveau du média, le deuxième dispositif de facebook se place au niveau du contenu, ce qui semble moins dogmatique et binaire : cela suppose en effet qu’un même média peut produire de vraies, comme de fausses informations.

Il est important de noter que la deuxième initiative de facebook est une “expérimentation”, avec un caractère potentiellement événementiel (utilisable en période d’élections), ce qui témoigne sans doute d’une hésitation de facebook sur le sujet.

Car avec ces deux initiatives, on voit combien facebook a des difficultés dans la gestion des “fake news”, les intégrant d’une part dans un ensemble plus large avec le concept inauthenticité, et déléguant d’autre part le travail de qualification des fake news à des médias sélectionnés.

Preuve que cette question est le sujet du moment pour les média, Google a lui aussi annoncé hier son outil anti fake news : Cross check, développé avec la société First Draft. Peu d’informations sont pour l’instant disponibles, mais l’on sait d’ores et déjà qu’il s’agit aussi d’un partenariat avec des médias sélectionnés, avec l’aide des utilisateurs (approche de signalement comme pour le décodex) et d’étudiants en journalisme.
Une fois opérationnel, il faudra se pencher sur l’outil pour décortiquer et analyser son fonctionnement. 
Il semblerait que le corpus sur lequel porte la fonctionnalité soit celui de Google news. Il serait intéressant de connaître la position de Google sur la question des fake news appliqué à son corpus principal (accessible par la recherche google standard).

Les différents algorithmes et notamment ceux qui pénalisent les pratiques visant à améliorer le positionnement dans les pages de résultats de recherche (Penguin en 2012) et la qualité des contenus (Panda en 2011, Phantom) évaluent plus la qualité des contenus et des sites que leur véracité. 
Parallèlement, à travers l’accessibilité des contenus dans les pages de résultat de recherche (SERP), Google ordonne (les premiers résultats sur les pages de résultats de recherche sont les plus visibles et accessibles) quand le décodex catégorise, facebook se situant sur un modèle intermédiaire.

Quand Le monde parle de lutte contre les “fausses informations”, facebook évoque la recherche d’authenticité, et Google la quête de la qualité des contenus. On voit bien ici que le choix des mots est porteur de sens, facebook et Google se rejoignant sur une approche plus pragmatique que morale.

Il faudra également suivre ce que fera ou pas Twitter sur cette question.

Fake news et vraies questions

Rumeur : Nouvelle, bruit qui se répand dans le public, dont l’origine est inconnue ou incertaine et la véracité douteuse (Larousse)

Il est intéressant de constater une radicalisation sémantique dans le champ lexical médiatique : le nom rumeur, qui décrit le mode de propagation d’une information plus que la qualification de l’information, a laissé place à des concepts tels que fake news ou post-vérité, qui disqualifient en formant et en enfermant une catégorie de contenus bannis.

Sur la question de la vérité, la définition de la rumeur offre la possibilité d’un doute (“véracité douteuse”) là ou le concept de fake news repose sur une approche binaire (vrai / faux) et excluante.

Pour aller au delà du vrai et du faux, il faudrait sans doute interroger plusieurs choses : l’intentionnalité du producteur de la dite fausse information (cherche t’il consciemment a diffuser une fausse information ?), son but final (car les fausses informations ne sont souvent qu’un outil qui vise à discréditer, comme c’est souvent le cas en politique, un opposant), les processus de propagation et de diffusion (qui relaie ? quelles intentionnalités et buts recherchés ? sur quels supports ?), et bien évidemment les effets et conséquences de la diffusion de ces fausses informations.

Croire ce que l’on voit, voir ce que l’on croit

Il s’agit enfin d’interroger les causalités toutes faites dans ce domaine : plutôt que de croire par défaut que la propagation des “fake news” est un poison pour les sociétés (on est toujours dans la confusion morale / vérité), ne serait-il pas dans un premier temps intéressant de se pencher plus en détail sur l’étude de l’effet de la propagation des dites “fausses informations” à l’heure du web participatif, et mettre cela en perspective avec les modèles médiatiques antérieurs ?

Dans quelle mesure, comment, par quels vecteurs la diffusion et la lecture d’informations dites fausses génère de l’intolérance, du racisme et de la violence ?

Cela pose beaucoup de questions : celle du rôle des médias, de dynamiques sociales, relationnelles, politiques…
Accréditer et discréditer des médias est-il vraiment moins dangereux que lire des fake news ?

Le préalable à cette réflexion est sans doute d’abandonner l’idée qu’il existe une vérité sur des phénomènes complexes reposant sur des liens de causalités et dont la perception et la connaissance se réalise non pas par l’expérience mais par des intermédiaires (média, relations), posture qui n’est pas pour autant nihiliste ou relativiste.

Pavés de bonnes intentions, le décodex me fait penser à la bibliothèque décrite dans le roman d’Umberto Eco Le Nom de la Rose, dans laquelle l’accès et la lecture de certains livres est interdite, car prétendus dangereux.

Interroger les causalités, mais aussi notre système de croyances, en mettant en évidence et en perspective les “croyances cachées” de notre société (1) : car pour combattre les croyances par les faits, il faut bien croire en les faits…

Et essayer de s’appuyer sur des acquis : au lieu de créer des catégorisations facteurs d’exclusion, créer la possibilité (le lieu et le contexte) de la confrontation, celles des idées.

(1) Bernard Lahire, Ceci n’est pas qu’un tableau — Essai sur l’art, la domination, la magie et le sacré, la Découverte, 2015