Comment bien mesurer l’audience des podcasts et des radios ?

Anthony Gourraud
Sep 30 · 8 min read
Il existe différentes approches pour mesurer l’audience des podcasts et des radios. Toutes ont leurs intérêts et leurs limites...

Vous pouvez retrouver en bas de page la version audio de cet article (extrait d’un entretien avec Jean-Pierre Cassaing, ex-Havas Media).
Cet édito est issu du podcast Des Ondes Vocast.

Médiamétrie : l’acteur historique critiqué mais jamais égalé

Sur le plan de la radio

Depuis 1986, l’institut Médiamétrie mesure l’audience de la radio en France métropolitaine. C’est le seul intermédiaire de confiance sur ce créneau pour le secteur radiophonique et publicitaire, assurant une cohérence sur les performances de chaque acteur du marché.
Aujourd’hui, 126 000 individus âgés de 13 ans et plus, représentatifs de la population française, sont interrogés sur une année via des interviews téléphoniques assistées par ordinateur (CATI).
Des études complémentaires — le Panel Radio — se font via un carnet d’écoute (voir plus bas). Ces rapports peuvent être transcrits sur papier ou en passant par un formulaire web.
Les Médialocales, créées en 1990, permettent d’obtenir des résultats sur le plan local. Les Médialocales englobent toutes les catégories de radios, et donne les chiffres d’audience par principales villes de France, mais aussi par départements et régions. A noter que “la 126 000” (résultats sur le plan national) et les Médialocales se basent sur les mêmes interviews.

Première critique récurrente :
Puisqu’il faut suffisamment de sondages complétés pour que les chiffres restent cohérents (il faut que l’échantillon soit suffisamment “robuste”), les résultats sur le plan national ne sont publiés que 4 fois par an (+ 1 fois pour l’été) et une fois par an sur le plan local. Les données ne permettent donc pas d’avoir des indicateurs précis ; il n’y a aucune mesure de performance d’une émission pour un jour en particulier.

Deuxième critique récurrente :
Médiamétrie ne mesure pas directement les écoutes des radios. Les résultats sont le fruit des réponses des sondés. Ces personnes doivent faire appel à leur mémoire lorsqu’elles sont interrogées. Difficile de vérifier que les hommes et femmes répondant aux questions disent parfaitement la vérité. L’impartialité des questions posées est aussi parfois remise en cause.

Sur le plan du podcast

Le sujet des podcasts est traité sous deux angles chez Médiamétrie :

● L’étude “Global Audio” permet de donner la vision d’ensemble de la consommation de podcasts et des autres usages audio (radio, streaming musical, livres audio…). Le dernier échantillon était composé de près de 4400 internautes de 15 ans et plus, représentatifs de la population française. Ils ont été interrogés par Internet. La méthodologie est également ici la même que pour l’audience de la radio, basée sur des sondages.
Contrairement au projet de Nielsen aux Etats Unis, du fait que le nombre de podcasts (et épisodes associés) est trop important, et au vu de la faible part de la population française écoutant des podcasts (22,8% des internautes écoutent chaque mois des podcasts), difficile d’imaginer avoir des études comme la “126 000” pour les podcasts.

● L’outil “eStat Podcast” permet d’enregistrer chaque téléchargement. Cela est possible avec un “prefix URL” ; la requête de l’auditeur rebondit sur les serveurs de Médiamétrie avant de servir le contenu désiré.

Analyse des accès par IP (logs des serveurs) : est-ce vraiment mieux que l’approche statistique ?

Le problème du podcasting : de nombreuses plateformes d’écoute, et donc peu d’indicateurs obtenables

Des outils comme Chartable et Podtrac proposent le même mécanisme que “eStat Podcast”, gratuitement et pour tout le monde.
A noter que les solutions d’hébergement de podcasts comme Ausha et Pippa offrent directement de telles mesures d’audience au sein de leur back-office.
Mais les mesures comme celles de Podtrac ont l’avantage d’être certifiées IAB, ce qui fait que les chiffres calculés suivent des règles standardisées, excluant notamment les comportements d’écoute jugés anormaux (robots, etc.).
Utiliser un intermédiaire comme Podtrac permet aussi d’avoir un référent commun, tout en ayant la liberté sur les choix d’hébergement.
Puisqu’il s’agit d’analyser les logs des serveurs, malgré des abus de langage nombreux chez les différents acteurs du monde du podcasting, seul le nombre d’accès au serveur hébergeant l’audio, donc le nombre de “téléchargements” d’un média, est calculable.
Des données complémentaires liées à l’adresse IP de l’auditeur (pays/ville d’origine, jour et heure d’accès, appareil et/ou plateforme de lecture utilisée) sont récupérables, mais rien de plus : il n’est pas possible à ce niveau de connaître le profil et le comportement d’écoute précis de l’auditeur. L’audio est peut-être lu immédiatement intégralement, ou bien juste les 10 premières minutes, ou même au contraire juste téléchargé et jamais écouté.
L’analyse du nombre d’octets envoyés par le serveur se révèle inutile : d’une part les médias ne sont pas lus de façon uniforme selon les interfaces d’écoute, et d’autre part le nombre de secondes chargées est en général bien supérieur à ce qui est consommé (pour une écoute partielle).
Sans oublier que certaines plateformes de lecture mettent “en cache” les contenus. Ainsi, un service comme Spotify ne va requêter que quelques fois le serveur où se trouve l’épisode audio, même s’il est lancé un million de fois via le lecteur en streaming.

Ce sont donc aux interfaces d’écoute (Apple Podcasts, Google Podcasts, Deezer, Spotify, Castbox, player web embed, etc.) de pister l’usage de l’auditeur pour connaître la durée d’écoute de podcasts, le taux de complétion, les affinités de l’auditeur, et autres indicateurs du genre.
Deezer, Spotify, Apple Podcasts, le player embeded de Simplecast, et d’autres fournissent chacun de leur côté des indicateurs de performance basés sur les événements côté client, mais rien n’est uniformisé car il n’y a aucun standard adopté par tous de ce côté là.
L’équipe R&D de NPR propose la spécification RAD, mais aujourd’hui, en septembre 2019, il n’y a aucune implémentation concrète réalisée avec cette méthodologie.

Les radios sur le web : le streaming d’un flux, plus facile à mesurer… mais les résultats restent limités

L’ACPM collecte les logs des serveurs auprès des différentes solutions de streaming utilisées par les radios diffusées sur le web.
Le traitement de ces logs est uniformisé pour offrir tous les mois un classement des flux les plus écoutés (en termes de connexions et de durées d’écoute).
La mesure de performance d’une radio (flux) est plus évidente que celle d’un podcast. En effet, une radio ne peut pas se “télécharger” ; toute donnée sortant d’un serveur de streaming est par principe lue. “Par principe”, car qu’est-ce qui prouve qu’une personne écoute réellement le flux ? Rien. Il peut y avoir des mécanismes de blacklisting (pour exclure les robots, les triches par multiples connexions ou autres), mais impossible de savoir si c’est réellement un humain conscient qui écoute, impossible de détecter si le son de l’appareil n’est pas coupé, impossible de savoir qui et combien de personnes écoutent la radio diffusée sur le web.

Le “diary” & le “watermarking”, deux autres façons de faire

Le “cahier d’écoute” : le carnet rempli volontairement par un panel

Certains instituts de sondage comme RAJAR au Royaume Uni mesure l’audience des radios en analysant les carnets d’écoute hebdomadaires remplis par des volontaires (100 000 par an). L’échantillonnage est très ciblé pour assurer une précision démographique et géographique.
Les répondants décrivent précisément leurs comportement d’écoute de la radio en direct pendant une semaine. Les données hebdomadaires sont agrégées et publiées trimestriellement.
Dès 1996 des radios comme Europe 1 avaient voulu utiliser cette méthodologie alternative à celle de Médiamétrie avec le cabinet Ipsos.
En réalité, le principe est le même. On peut relever cependant que les personnes remplissent dans la tranquillité le carnet d’écoute, alors que les réponses successives au téléphone peuvent être plus fatigantes. Les arguments
pointant le fait que les actifs en mobilité sont sous représentés via les interviews téléphoniques s’entendent aussi.
Cette méthode pourrait être applicable pour la mesure de podcasts, mais serait sûrement imprécise à cause du problème d’échantillon trop petit.

Le watermarking : automatique, platform-agnostic et en temps réel…. Le graal ?

Le watermarking est différent du fingerprinting, méthode consistant à comparer des enregistrements d’auditeurs (via une montre avec micro comme la Mediawatch en Suisse) et l’enregistrement des différentes stations de radio.
Le fingerprinting a le gros désavantage de ne pas donner d’informations sur le canal d’écoute, et ne peut différencier l’éditeur d’origine si des contenus identiques sont diffusés au même moment.

D’abord utilisé pour la télévision car les façons de consommer la TV se multipliaient de plus en plus (câble, TVIP, replay, …), le watermarking est une technologie basée sur l’insertion d’un tatouage numérique dans le son des programmes et permet de s’affranchir des contraintes techniques liées à l’évolution des modes de réception.
Le watermarking est utilisé en test par Médiamétrie pour mesurer automatiquement les écoutes de la radio, avec un “pager” porté par des panélistes. Cet audimètre détecte en continu et partout les tatouages (watermark) intégrés dans le son des programmes, et envoie les données collectées à Médiamétrie via GPRS.

A première vue, cette méthode semble idéale, puisqu’elle est précise, automatique, continue, et ne dépend pas de la plateforme d’écoute.
Elle reste cependant basée sur un échantillon, donc les chiffres resteront des résultats statistiques.
Un des gros problèmes du watermarking réside dans le fait que l’écoute au casque ne peut pas être mesurée de cette façon (et donc n’imaginez pas mesurer l’audience des podcasts avec!). De plus, le watermarking est cher à intégrer.
Mais surtout rien ne garantit que l’individu porte scrupuleusement bien l’audimètre sur lui. Le matin est une période où la radio est beaucoup écoutée ; comment s’assurer que l’audimètre enregistre l’écoute dès le réveil, au petit déjeuner ou même sous la douche ?

La Norvège a été le premier pays à adopter cette méthodologie et le volume d’écoute a baissé de 30% dès la première apparition des résultats. Même si le secteur s’est réadapté en augmentant le prix des spots en conséquence, on peut comprendre que les acteurs historiques soient frileux à l’idée de passer à cette nouvelle façon de mesurer l’audience.

Conclusion : Aucune méthode viable ?

Toutes les solutions actuelles ont leurs forces et leurs faiblesses, elles sont même complémentaires

C’est absurde de comparer la méthodologie de Médiamétrie avec la mesure basée sur les logs, car l’approche n’est pas absolument pas la même. Aucune de ces solutions n’est parfaite, aucune n’est meilleure que l’autre.
Le plus important, c’est que tous les acteurs aient le même étalon, la même façon de mesurer l’audience. Les mesures non uniformisées n’ont aucun intérêt, et ne permettent pas de développer le marché publicitaire, en recherche d’indicateurs de confiance. C’est la grande force de Médiamétrie aujourd’hui encore.

Faut-il vraiment “des données d’audience plus précises” ? Et voici d’autres indicateurs intéressants

Quand certains réclament “plus de données” sur les comportements d’écoute, que veulent-ils exactement, et dans quels buts ? Dans tous les cas, dès qu’un média peut être consommé via différents canaux de distribution, c’est utopique de penser que l’on peut avoir des statistiques précises.
Peut-être qu’il ne faut pas chercher la perfection en termes de données d’écoute, mais plutôt se créer ses propres KPIs selon son activité : nombre d’appels au standard, interactions et engagement sur les réseaux sociaux, utiliser le couponing lors des annonces (le nombre d’achats réalisés avec ce coupon donne une idée de la performance publicitaire), analyser les
variations de trafic web & applications mobiles, etc.

A réécouter en audio : podcast Des Ondes Vocast

Lien web de l’épisode : https://www.vocast.fr/desondes/s2e2.html

Des Ondes Vocast

Des archives qui ont marqué la bande FM aux discussions autour des futurs possibles du média, le podcast “Des Ondes Vocast” est dédié aux passionnés de radio.

Contact : Twitter @AnthonyGourraud ou contact@vocast.fr

Sources

IP Belgium
Médiamétrie

Anthony Gourraud

Written by

Vocast Project : Podcast / Radio - https://www.vocast.fr

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade