Comment bien mesurer l’audience des podcasts et des radios ?
[Dernière MAJ de l’article : janvier 2020]
Vous pouvez retrouver en bas de page la version audio de cet article (extrait d’un entretien avec Jean-Pierre Cassaing, ex-Havas Media, enregistré fin août 2019).
Cet édito est issu du podcast Des Ondes Vocast.
Médiamétrie : l’acteur historique critiqué mais jamais égalé
Sur le plan de la radio
Depuis 1986, l’institut Médiamétrie mesure l’audience de la radio en France métropolitaine. C’est le seul intermédiaire de confiance sur ce créneau pour le secteur radiophonique et publicitaire, assurant une cohérence sur les performances de chaque acteur du marché.
Aujourd’hui, 126 000 individus âgés de 13 ans et plus, représentatifs de la population française, sont interrogés sur une année via des interviews téléphoniques assistées par ordinateur (CATI).
Des études complémentaires — le Panel Radio — se font via un carnet d’écoute. Ces rapports peuvent être transcrits sur papier ou en passant par un formulaire web.
Les Médialocales, créées en 1990, permettent d’obtenir des résultats sur le plan local. L’étude englobe toutes les catégories de radios. Elle donne les chiffres d’audience par principales villes de France, mais aussi par départements et régions. A noter que “la 126 000” (résultats sur le plan national) et les Médialocales se basent sur les mêmes interviews.
Première critique récurrente :
Puisqu’il faut suffisamment de sondages complétés pour que les chiffres restent cohérents (il faut que l’échantillon soit suffisamment “robuste”), les résultats sur le plan national ne sont publiés que 4 fois par an (+ 1 fois pour l’été) et une fois par an sur le plan local. Les données ne permettent donc pas d’avoir des indicateurs précis ; il n’y a aucune mesure de performance d’une émission pour un jour en particulier.
Deuxième critique récurrente :
Médiamétrie ne mesure pas directement les écoutes des radios. Les résultats sont le fruit des réponses des sondés. Ces personnes doivent faire appel à leur mémoire lorsqu’elles sont interrogées. Difficile de vérifier que les hommes et femmes répondant aux questions disent parfaitement la vérité. L’impartialité des questions posées est aussi parfois remise en cause.
Sur le plan du podcast
● L’étude “Global Audio” permet de donner la vision d’ensemble de la consommation de podcasts et des autres usages audio (radio, streaming musical, livres audio…).
Le dernier échantillon était composé de près de 4 400 internautes de 15 ans et plus, représentatifs de la population française. Ils ont été interrogés par Internet. La méthodologie est également ici la même que pour l’audience de la radio, basée sur des sondages.
● Depuis 2009, l’outil “eStat Podcast” permet d’enregistrer chaque téléchargement. Cela est possible avec une URL de redirection : la requête de l’auditeur rebondit sur les serveurs de Médiamétrie avant de servir le contenu désiré.
● Alors que le groupe Nielsen aux Etats Unis a choisi de mesurer l’audience des podcasts de ses abonnés par le biais de questionnaires auprès de 30 000 personnes, Médiamétrie a annoncé en novembre 2019 utiliser le watermarking en plus des enquêtes quotidiennes.
L’institut de sondage se repose sur un panel de 3 000 personnes volontaires, représentatif de la population française, équipé d’un audimètre individuel porté nommé aussi pager. Cet appareil détecte dans les contenus audio lus un marqueur (“tatouage”) inaudible intégré au sein des podcasts.
Un adaptateur pour les écoutes au casque est fourni, et semblerait compatible même en cas d’utilisation du Bluetooth (confirmé par une responsable de Médiamétrie). Utiliser un tel adaptateur est contraignant pour les panélistes ; “l’audience de l’écoute au casque sera donc sous-estimée. Elle fera a terme l’objet d’une modélisation” affirme Emmanuelle Le Goff, directrice du département radio de Médiamétrie au Figaro.
D’après ce tweet provenant d’un manager travaillant pour une grande radio française, le marqueur sonore ne permettrait de ne différencier que l’éditeur et non pas le contenu précisément. Plusieurs sources, dont une travaillant à Médiamétrie, m’ont cependant affirmé que toute information permettant de distinguer le podcast/l’épisode était possiblement intégrable au sein du watermark, et qu’il n’y avait pas de “norme” imposée sur les données associées pour la collecte.
L’intégration de cette technologie dans les podcasts est coûteuse, ce qui explique aussi que seuls quelques grands groupes radio seraient actuellement souscripteurs. Mais les studios de podcasts indépendants ne sont pas exclus du dispositif, et pourront se payer ce type d’études s’ils le souhaitent plus tard. A noter aussi que les résultats ne sont pas dévoilés publiquement par Médiamétrie.
L’échantillon est très petit, surtout au vu de la faible part de la population française écoutant des podcasts (seulement 22,8% des internautes en écoutent chaque mois d’après la dernière étude Global Audio). Il est question d‘un total de 3000 individus ; pour rappel, le panel Médiamat, utilisé pour mesurer l’audience quotidienne des chaînes de télévision, est constitué d’environ 5 000 foyers, soit plus de 12 400 individus âgés de 4 ans et plus.
Pour conclure, je pense que cette méthodologie mérite d’être expérimentée, même si malheureusement elle ne peut être utile que pour les podcasts très populaires, justifiant d’une fort volume d’écoute. La méthodologie avec le watermarking combine l’approche statisitique ainsi que la preuve factuelle d’écoute ; c’est une approche intéressante, à condition d’avoir un panel suffisemment large et de réaliser les efforts technologiques de “tatouage” des contenus audio… L’efficacité est donc avant tout limitée par les coûts.
Analyse des accès par IP (logs des serveurs) : est-ce vraiment mieux que l’approche statistique ?
Les radios sur le web : le streaming d’un flux, plus facile à mesurer… mais les résultats restent limités
L’ACPM collecte les logs des serveurs auprès des différentes solutions de streaming utilisées par les radios diffusées sur le web. Le traitement de ces logs est uniformisé pour offrir tous les mois un classement des flux les plus écoutés (en termes de connexions et de durées d’écoute).
La mesure de performance d’une radio (flux) est plus évidente que celle d’un podcast. En effet, une radio ne peut pas se “télécharger” ; toute donnée sortant d’un serveur de streaming est par principe lue. “Par principe”, car qu’est-ce qui prouve qu’une personne écoute réellement le flux ? Rien. Il peut y avoir des mécanismes de blacklisting (pour exclure les robots, les triches par multiples connexions ou autres), mais il est difficile de savoir si c’est réellement un humain conscient qui écoute, impossible de détecter si le son de l’appareil n’est pas coupé, impossible de savoir qui et combien de personnes par session écoutent la radio diffusée sur le web. Sachant que l’écoute des webradios se fait souvent sans authentification utilisateur, très peu d’informations sur le profil des auditeurs sont disponibles.
Les problèmes du podcasting : l’écoute différée et de nombreuses plateformes d’écoute
Des outils comme Chartable et Podtrac proposent gratuitement et pour tout le monde le même mécanisme que l’outil “eStat Podcast” de Médiamétrie.
A noter que les solutions d’hébergement de podcasts comme Ausha et Acast offrent directement de telles mesures d’audience au sein de leur back-office.
Mais les mesures comme celles de Podtrac ont l’avantage d’être certifiées IAB, ce qui fait que les chiffres calculés suivent des règles standardisées, excluant notamment les comportements d’écoute jugés anormaux (robots, etc.).
Utiliser un intermédiaire comme Podtrac permet aussi d’avoir un référent commun, tout en ayant la liberté sur les choix d’hébergement.
En novembre 2019, l’ACPM annonce lancer “une certification des mesures de la diffusion des podcasts”. L’ACPM va récolter les données issues :
- des logs des plateformes d’hébergement et de diffusion
- des services implémentant des tags sur les players audios (comme ceux d’AT Internet)
- via des liens de redirections (méthode utilisée par Podtrac, Chartable et eStat Podcast)
L’organisme ne fait aucunement mention des normes de l’IAB, même si certaines personnes en charge du projet me confiait “se baser sur les mêmes règles, mais pas forcément toutes”.
A titre personnel, j’aimerai vraiment avoir des preuves que l’ACPM détecte les mauvaises implémentations / triches comme celles avérées d’iHeart ou même American Media LLC (chiffres pourtant certifiés IAB via Podtrac).
Quand il s’agit d’analyser les logs côté serveurs, malgré des abus de langage nombreux chez les différents acteurs du monde du podcasting, seul le nombre d’accès au serveur hébergeant l’audio, donc le nombre de “téléchargements” d’un média, est calculable.
Des données complémentaires liées à l’adresse IP de l’auditeur (pays/ville d’origine, jour et heure d’accès, appareil et/ou plateforme de lecture utilisée) sont récupérables, mais rien de plus : il n’est pas possible à ce niveau de connaître le profil et le comportement d’écoute précis de l’auditeur. L’audio est peut-être lu immédiatement intégralement, ou bien juste les 10 premières minutes, ou même au contraire téléchargé et jamais écouté.
L’analyse du nombre d’octets envoyés par le serveur se révèle inutile : d’une part les médias ne sont pas lus de façon uniforme selon les interfaces d’écoute, et d’autre part le nombre de secondes chargées est en général bien supérieur à ce qui est consommé (pour une écoute partielle).
Sans oublier que certaines plateformes de lecture mettent “en cache” les contenus. Ainsi, par exemple, si l’hébergeur de podcasts n’a pas d’accords explicites avec Spotify, le service de streaming ne va requêter que quelques fois le serveur où se trouve l’épisode audio, même s’il est lancé un million de fois via l’application.
Ce sont donc aux interfaces d’écoute (Apple Podcasts, Google Podcasts, Deezer, Spotify, Castbox, player web embed, etc.) de pister l’usage de l’auditeur pour connaître la durée d’écoute de podcasts, le taux de complétion, les affinités de l’auditeur, et autres indicateurs du genre.
Deezer, Spotify, Apple Podcasts, le player embeded de Simplecast, et d’autres fournissent chacun de leur côté des indicateurs de performance basés sur les événements côté client, mais rien n’est uniformisé car il n’y a aucun standard adopté par tous de ce côté là.
L’équipe R&D de NPR propose la spécification RAD, mais il n’y a toujours aucune implémentation concrète réalisée avec cette méthodologie.
Complément : précisions sur le “diary” et le “watermarking”
Le cahier d’écoute : le carnet rempli volontairement par un panel
Certains instituts de sondage comme RAJAR au Royaume Uni mesure l’audience des radios en analysant les carnets d’écoute hebdomadaires remplis par des volontaires (100 000 par an). L’échantillonnage est très ciblé pour assurer une précision démographique et géographique.
Les répondants décrivent précisément leurs comportement d’écoute de la radio en direct pendant une semaine. Les données hebdomadaires sont agrégées et publiées trimestriellement.
Dès 1996 des radios comme Europe 1 avaient voulu utiliser cette méthodologie alternative à celle de Médiamétrie avec le cabinet Ipsos.
En réalité, le principe est le même. On peut relever cependant que les personnes remplissent dans la tranquillité le carnet d’écoute, alors que les réponses successives au téléphone peuvent être plus fatigantes. Les arguments
pointant le fait que les actifs en mobilité sont sous représentés via les interviews téléphoniques s’entendent aussi.
Le watermarking : automatique, platform-agnostic et en temps réel…. Le graal ?
Le watermarking est différent du fingerprinting, méthode consistant à comparer des enregistrements d’auditeurs (via une montre avec micro comme la Mediawatch en Suisse) et l’enregistrement des différentes stations de radio.
Le fingerprinting a le gros désavantage de ne pas donner d’informations sur le canal d’écoute, et ne peut différencier l’éditeur d’origine si des contenus identiques sont diffusés au même moment.
D’abord utilisé pour la télévision car les façons de consommer la TV se multipliaient de plus en plus (câble, TVIP, replay, …), le watermarking est une technologie basée sur l’insertion d’un tatouage numérique dans le son des programmes et permet de s’affranchir des contraintes techniques liées à l’évolution des modes de réception.
Un audimètre porté par un panéliste détecte alors en continu et partout les tatouages (watermark) intégrés dans le son des programmes, et envoie les données collectées à un institut de sondage comme Médiamétrie.
A première vue, cette méthode semble idéale, puisqu’elle est précise, automatique, continue, et ne dépend pas de la plateforme d’écoute.
Elle reste cependant basée sur un échantillon, donc les chiffres resteront des résultats statistiques.
Mais surtout rien ne garantit que l’individu porte scrupuleusement bien l’audimètre sur lui. Le matin est une période où la radio est beaucoup écoutée ; comment s’assurer que l’audimètre enregistre l’écoute dès le réveil, au petit déjeuner ou même sous la douche ?
La Norvège a été le premier pays à adopter cette méthodologie pour la mesure d’audience des radios et le volume d’écoute a baissé de 30% dès la première apparition des résultats. Même si le secteur s’est réadapté en augmentant le prix des spots en conséquence, on peut comprendre que les acteurs historiques soient frileux à l’idée de passer à cette nouvelle façon de mesurer l’audience.
Conclusion : Aucune méthode viable ?
Toutes les solutions actuelles ont leurs forces et leurs faiblesses, elles sont même complémentaires
C’est absurde de comparer une méthodologie basée sur un panel avec une mesure à partir de logs serveur, car l’approche n’est pas absolument pas la même.
Aucune de ces solutions n’est parfaite, aucune n’est meilleure que l’autre.
Le plus important, c’est que tous les acteurs aient le même étalon, la même façon de calculer les chiffres d’audience. Les mesures non uniformisées et/ou pipées n’ont aucun intérêt, et ne permettent pas de développer le marché publicitaire, en recherche d’indicateurs de confiance. Sur ce dernier point, c’est la grande force de Médiamétrie aujourd’hui encore en France.
Pour se rapprocher de la perfection dans l’obtention des données d’audience, il faudrait que tous les médias soient diffusés exclusivement via une plateforme unique en IP, où les auditeurs devraient s’identifier et présenter leur profil complet pour écouter. (Mais est-ce sincèrement une solution viable et acceptable ?)
Faut-il vraiment “des données d’audience plus précises” ? Et voici d’autres indicateurs intéressants
Quand certains réclament “plus de données” sur les comportements d’écoute, que veulent-ils exactement, et dans quels buts ? Dans tous les cas, dès qu’un média peut être consommé via différents canaux de distribution, c’est utopique de penser que l’on peut avoir des statistiques précises.
Peut-être qu’il ne faut pas chercher la perfection en termes de données d’écoute, mais plutôt se créer ses propres KPIs selon son activité : nombre d’appels au standard, interactions et engagement sur les réseaux sociaux, utiliser le couponing lors des annonces (le nombre d’achats réalisés avec ce coupon donne une idée de la performance publicitaire), analyser les
variations de trafic web & applications mobiles, etc.
Il peut aussi être intéressant de changer le modèle de pensée et imaginer un système de monétisation non plus basé sur des mesures d’audience mais sur la rémunération équitable par quantité d’attention utilisateur. Un tel système est déjà en cours d’expérimentation, avec le navigateur Brave et son Basic Attention Token (lire mon billet de blog à ce sujet).
A réécouter en audio : podcast Des Ondes Vocast
Attention : enregistrement datant d’août 2019. L’édito audio n’est plus complètement à jour.
Lien web de l’épisode : https://www.vocast.fr/desondes/s2e2.html
Des Ondes Vocast
Des archives qui ont marqué la bande FM aux discussions autour des futurs possibles du média, le podcast “Des Ondes Vocast” est dédié aux passionnés de radio.
Contact : Twitter @AnthonyGourraud ou contact@vocast.fr