[Opinion] Fact-checking et score de crédibilité : entre subjectivité et fausses interprétations, le cas de PolitiFact

Benjamin Piouffle
CaptainFact
Published in
4 min readMar 13, 2018

--

C’est une demande qui revient régulièrement sur CaptainFact : pourrait-on calculer, à posteriori du fact-checking, une note qui jugerait de la factualité des intervenant·e·s ?

Loin d’être de l’ordre de la science-fiction, cette idée est en fait déjà appliquée outre-atlantique par le site https://www.politifact.com qui met en avant ses statistiques de vérification par personnalité. On y découvre que Donald Trump ne dit la vérité que sur 31% des affirmations vérifiées par le service là où son prédécesseur Barack Obama est à 76%.

Bien qu’elle puisse sembler attirante pour trier l’information plus vite, l’idée d’un score de crédibilité est aussi dangereuse qu’elle est probablement inefficace et ce même (surtout ?) si le travail de vérification est fait de manière collaborative, en encourageant la confrontation des sources comme nous cherchons à le faire sur CaptainFact.

Toutes les fausses informations ne se valent pas

Faire une erreur en annonçant des chiffres surréalistes sur les importations de produits laitiers n’a pas le même impact que de nier l’existence des chambres à gaz. Chez PolitiFact on ne s’encombre pas de cet aspect : une affirmation est vraie, plutôt vraie, à moitié vraie, plutôt fausse, fausse, ou un gros bobard. La nature de ce bobard importe peu : inventer une fraude électorale, multiplier par trois le nombre d’immigrés ou prétendre à tort que les pubs de McCain lors des élections étaient plutôt négatives vous vaudront tous les trois un “Pants on fire” — le bonnet d’âne de la fake news chez PolitiFact.

Sélectionner les informations qu’on vérifie, c’est attribuer un score subjectif

Pour être sélectionnée, une affirmation doit d’abord attirer l’attention d’un·e journaliste, d’un lecteur ou d’une lectrice (un tiers de leurs publications sont issues de suggestions). Elle doit ensuite répondre à un ou plusieurs des critères suivants :

  • Être vérifiable
  • Être trompeuse ou sonner fausse
  • Être significative (les erreurs mineures ou une langue qui fourche de manière évidente sont ignorées)
  • Être sujette à partage ou à répétition par le public
  • Une personne typique peut être amenée à se questionner sur sa véracité

Même en admettant une totale impartialité des journalistes, la mise de côté de leurs biais idéologiques et la parité de leurs propres lectures, on peut raisonnablement penser que ces règles poussent à privilégier la vérification des affirmations qu’on pense être fausses.

Aucun effort ne semble en tous cas être fait pour apporter une vérification systématique et quand bien même la volonté serait là, vérifier toutes les affirmations d’un·e intervenant·e n’est ni faisable ni souhaitable.

Mais que peut bien vouloir dire ce score s’il ne prend pas en compte 100% des affirmations vérifiables ?

L’interprétation

Malgré le fait que la représentativité de ces vérifications ne soit nulle part garantie, PolitiFact ne se gêne pas pour présenter ses scores comme un “Truth-O-Meter”. Autrement dit, un appareil de mesure de vérité. Une mesure si scientifique et objective qu’elle leur permet même de comparer les candidats entre eux !

Et tant pis si quand PolitiFact annonçait en 2016 30.5% d’affirmations fausses chez les démocrates (à l’exception d’Obama) là où son équivalent du Washington Post Fact Checker arrivait lui à un chiffre de 57.1% — soit presque deux fois plus (source: American Press Institute).

C’est pourtant ici que réside la question la plus importante : Comment le public va-t-il interpréter cette note ? Quelle information va-t-il en retirer ?

Une petite recherche sur Twitter permet de constater que beaucoup d’utilisateurs perçoivent effectivement ce score comme une mesure absolue qui leur permet de comparer de manière crédible qui ment le plus entre Trump et Obama, entre démocrates et républicains :

Ce dernier Tweet est particulièrement intéressant : trois affirmations classées comme fausses sur PolitiFact suffisent pour être fiché comme un menteur compulsif, et le simple fait de citer l’individu invalide l’ensemble du propos.

Le travail de fact-checking n’est ici plus utilisé pour construire une argumentation factuelle mais pour servir un message idéologique dont le score constitue l’argument d’autorité. Score dont la légitimité reste à prouver.

Dear PolitiFact, please focus on your job 💛

Le travail de fact-checking de PolitiFact est précieux. Sa valeur ajoutée réside dans la vérification de points précis et potentiellement délicats par des équipes dont l’efficacité a plusieurs fois été saluée.

Offrir aux lecteurs un résumé grossier, une caricature, par un pourcentage dont la fiabilité statistique ne saurait être démontrée semble aller à l’encontre de cette mission.

Coller des étiquettes sur des médias et des individus en se basant sur des données discutables ne semble définitivement pas être une bonne chose à faire si l’on espère agir avec la confiance du public.

--

--

Benjamin Piouffle
CaptainFact

Working on communities sustainability @opencollect | Developing collaborative fact-checking tools with @CaptainFact_io