En plus de trouver un modèle économique durable, les éditeurs d'aujourd'hui opérant dans l'arène numérique sont aux prises avec un autre défi : bien mesurer la performance de leurs contenus et vraiment comprendre le comportement de leur audience. Il s'agit d'un véritable problème pour toutes sortes de publications, qu'elles soient financées par la publicité ou qu'elles fassent partie de la nouvelle génération fonctionnant selon un modèle de revenus des lecteurs.
Les choses étaient un peu plus simples dans le passé. Les éditeurs pourraient mesurer leur réussite commerciale en notant et en comparant le nombre de journaux ou de magazines vendus au fil du temps. Ils pourraient alors estimer la taille de leur lectorat en multipliant le nombre d'exemplaires vendus par 2 ou 2,5, ce qui est considéré comme le taux de transmission moyen . Les informations sur le succès de la diffusion étaient particulièrement importantes pour les annonceurs qui voulaient une preuve de valeur avant d'investir dans l'espace publicitaire.
Les éditeurs de médias traditionnels s'appuient toujours sur ce type de calculs, car avouons-le, c'est aussi bon que possible.
Une fois entrés dans l'ère numérique, les éditeurs ont découvert de nouvelles façons de monétiser leur contenu. Cependant, ils se sont également retrouvés en territoire inconnu. Mesurer les performances du contenu impliquait désormais d'utiliser des outils d'analyse et de maîtriser les données, ce qui, pour de nombreux éditeurs, s'est avéré être un gros morceau à avaler. D'où l'erreur de faire confiance à des métriques uniques.
Essayons de voir pourquoi des statistiques uniques telles que
- Pages vues
- Temps sur la page et
- Visiteurs de retour
ne peuvent pas être des indicateurs fiables pour les éditeurs qui souhaitent mesurer les performances de leur contenu, comprendre le comportement de leur public, identifier leurs lecteurs fidèles et entretenir une relation solide avec eux.
1. Pages vues
Les pages vues sont omniprésentes pour mesurer les performances des publicités et la popularité des pages de produits sur les sites de commerce électronique. Cette mesure a pris son essor avec Google Analytics , l'un des outils d'analyse les plus connus, conçu principalement pour les entreprises de commerce électronique.
Le problème avec les pages vues :
Malheureusement, en l'absence de mieux, les pages vues ont rapidement été adoptées comme une mesure légitime pour mesurer les performances du contenu par de nombreux outils d'analyse sur le marché.
Voici comment les pages vues ont été faussement interprétées par de nombreux éditeurs : plus de pages vues équivaut à plus de visiteurs et plus d'engagement. Si un élément de contenu génère de nombreuses pages vues, il est finalement meilleur que le reste des articles, n'est-ce pas ?
Pas vraiment.
Abordons ce problème systématiquement.
Voici comment les pages vues ont été définies dans Google Analytics :
Une page vue (ou pageview hit, page tracking hit) est une instance d'une page en cours de chargement (ou de rechargement) dans un navigateur. Les pages vues sont une mesure définie comme le nombre total de pages consultées. […] Si un utilisateur clique sur recharger après avoir atteint la page, cela est compté comme une page vue supplémentaire. Si un utilisateur accède à une autre page, puis revient à la page d'origine, une deuxième page vue est également enregistrée.
Il existe également une métrique appelée Unique Pageviews qui représente un nombre de sessions au cours desquelles une certaine page a été vue au moins une fois. Ainsi, si un certain utilisateur visite la page en question, puis s'en éloigne et y revient au cours de la même session, GA comptera 1 page vue unique.
Cependant, les pages vues sont une mesure du navigateur et ne décrivent pas la nature de la connexion ou le niveau d'engagement des visiteurs du site avec votre contenu. Pas de loin.
Une personne peut ouvrir un certain article puis le fermer immédiatement, ou le laisser ouvert dans un onglet du navigateur tout en faisant autre chose. Le script de l'outil d'analyse l'enregistrera malgré tout comme une page vue.
On pourrait dire que le nom plus précis pour Pageviews serait Page-Loads , puisque cette métrique n'indique pas nécessairement le nombre de personnes qui ont consulté la page, mais le nombre de fois que la page a été chargée dans le navigateur.
Comment les éditeurs tentent de donner un sens aux pages vues :
Les éditeurs et les spécialistes du marketing de contenu peuvent essayer de donner plus de sens à cette métrique en observant comment elle se corrèle avec d'autres métriques uniques disponibles dans GA et des outils d'analyse similaires.
Par exemple, ils examineront la combinaison de mesures uniques disponibles : pages vues, temps moyen passé sur la page et taux de rebond. Ainsi, la « formule » courante pour estimer si un certain article a bien fonctionné ou non ressemble à ceci :
Nombre élevé de pages vues + « bon » temps moyen sur la page + faible taux de rebond
Le « idéal » Time on Page serait celui qui correspond au temps de lecture nécessaire à l’article en question. La vitesse moyenne de lecture est d'environ 265 WPM, donc les éditeurs s'assoient et font quelques calculs simples : si leur article contient 1 500 mots, il faudrait environ 5 minutes et demie à une personne pour le lire, de haut en bas. Bien entendu, tous les visiteurs du site ne le liront pas entièrement, le temps moyen passé sur la page sera donc inférieur. La partie délicate pour les éditeurs est de décider quelle heure serait acceptable ici, c'est-à-dire quel est le « bon » temps moyen passé sur la page.
Le principal problème avec cela ? Eh bien, la façon dont le temps moyen sur la page est calculé dans GA et des outils similaires peut gâcher vos hypothèses (voir le segment suivant intitulé Temps sur la page / Temps moyen sur la page).
Par définition, un rebond est une session d'une seule page sur votre site. Le taux de rebond est le pourcentage de visites d'une seule page. Le taux de rebond d'une page est basé uniquement sur les sessions qui commencent par cette page.
Ainsi, les éditeurs pensent : plus le taux de rebond est bas, mieux c'est. En théorie, ils ont raison puisque cela indique que les gens étaient intéressés par d'autres contenus publiés sur votre site Web, c'est-à-dire qu'ils ont décidé de naviguer plus loin. Mais les informations sur la manière dont ils ont réellement interagi avec votre contenu ne sont pas disponibles dans les rapports standard de GA. Vous pouvez supposer que certains d’entre eux sont présents sur votre site Web, mais c’est tout.
En ligne, vous pouvez trouver des informations sur les valeurs idéales du Bounce Rate : elles ne dépassent pas 40 %, tandis que les valeurs moyennes vont jusqu'à 55 %. Cependant, vous devez définir une base de référence en fonction de votre propre site Web et ne pas rechercher des chiffres et des normes qui fonctionnent pour quelqu'un d'autre. De plus, les valeurs du taux de rebond peuvent être horriblement trompeuses si elles ne sont pas interprétées correctement. Le contexte est également important : par exemple, si une page de contact a un taux de rebond élevé, ce n'est pas qu'elle n'apporte pas de valeur. Il répond simplement à une requête spécifique pour les utilisateurs qui ne ressentent alors plus le besoin de naviguer plus loin.
Comment nous avons abordé ce problème :
Contrairement aux pages vues dans GA et les outils similaires, chez Content Insights , nous avons développé des métriques complexes . Notre solution d'analyse propose des lectures d'articles , qui se concentrent sur le comportement humain réel, car elles prennent en compte le temps réel passé sur la page, mais également la façon dont les gens interagissent avec la page (par exemple, clics, sélection de texte, défilement, etc.). En plus des lectures d'articles, CI utilise également la profondeur de lecture comme mesure complexe qui révèle à quel point un visiteur s'est plongé dans la lecture d'un élément de contenu. Pour plus de précision, il s’appuie sur la combinaison de plusieurs métriques, dont l’Attention Time. De plus, nous avons également la profondeur de page qui calcule le nombre moyen de pages visitées après qu'un lecteur ouvre la page initiale ou l'article.
2. Temps passé sur la page / Temps moyen passé sur la page
De nombreux éditeurs examinent le temps passé sur la page et le temps moyen passé sur la page lorsqu'ils tentent de définir quel contenu pourrait être considéré comme attrayant. Ils pensent que plus les gens restent longtemps sur une certaine page, plus la probabilité que le contenu proposé soit engageant est élevée.
Cependant, après avoir compris la manière dont cette mesure est mesurée, vous constaterez qu’elle ne fournit aucune information fiable.
Le problème de la mesure du temps passé sur la page :
Google Analytics et les outils d'analyse similaires mesurent ces mesures uniquement au niveau du navigateur, ce qui ne dit rien sur la façon dont les gens interagissent avec le contenu.
Lorsqu'une personne quitte la page mais laisse l'onglet ouvert, Google Analytics et les outils d'analyse similaires ne peuvent pas l'enregistrer. En ce qui concerne les analyses, la personne n’a jamais quitté le site Web. De plus, GA ne peut pas mesurer le temps qu'un utilisateur a passé sur la dernière page de sa visite sur votre site. De plus, si le visiteur quitte après avoir consulté une seule page (c'est-à-dire si la visite est un rebond), aucune heure ne sera enregistrée du tout.
Comme vous pouvez le constater, ces données ne reflètent pas correctement le niveau d'engagement du lecteur envers votre contenu.
Comment les éditeurs tentent de donner un sens au temps moyen passé sur la page :
Certains éditeurs déploient des outils de suivi des événements, tels que la profondeur de défilement, dans le but d'obtenir des rapports plus précis et de garantir que le temps passé sur la page est mesuré même si la page est un rebond. Cependant, ce n'est pas si simple.
Lorsqu’il s’agit de s’appuyer uniquement sur la profondeur de défilement, il existe un problème sous-jacent concernant :
- l'activité réelle de l'utilisateur
- l' emplacement du pli
- la longueur de l'article
Disons qu'une personne fait défiler les 60 % de votre contenu, mais qu'elle le fait sur un écran qui n'est pas zoomé à 100 % mais à 75 %. Ils peuvent voir le reste de votre contenu et ne continuent pas à faire défiler vers le bas.
Ou bien, disons qu'ils sont à 60% de votre contenu, mais qu'ils y restent une demi-heure (la page reste ouverte et ils s'éloignent de leur ordinateur), avant de finalement rebondir. De plus, ce n’est pas parce qu’ils font défiler votre contenu qu’ils le lisent réellement. Et si l’article n’est pas très long ? La profondeur de défilement sera de 100 %, mais cela ne signifie pas que cet article particulier a généré plus d'engagement ou est plus performant que d'autres.
Inutile de dire que même avec le suivi des événements, les rapports peuvent ne pas être précis car ils ne fournissent pas une image complète. Les écarts de données ne sont pas rares, c'est pourquoi les propriétaires de comptes peuvent remarquer dans leur rapport que la durée moyenne de visite de la page est plus longue que la durée moyenne de la session, ce qui n'a pas beaucoup de sens. Dans Google Analytics, cela s’appelle le « temps perdu ».
Comment nous avons abordé ce problème :
Contrairement à GA et aux outils d'analyse similaires, Content Insights mesure le temps d'attention , qui est le temps réel qu'un utilisateur passe sur la page à consommer du contenu. Il ne prend pas en compte le temps d'inactivité, c'est-à-dire le temps pendant lequel une personne n'est pas active sur la page ou est absente de la page. Ainsi, ce que vous obtenez avec cette métrique est le temps d’engagement réel.
Notre solution d'analyse s'appuie sur un algorithme complexe appelé Content Performance Indicator (CPI). L'IPC est toujours présenté sous la forme d'un nombre, de 1 à 1 000, 500 étant la référence (c'est-à-dire la « norme ») pour le site Web, la section, le sujet, l'auteur ou l'article observé.
CPI prend en compte des dizaines de mesures de performances de contenu différentes et examine leurs relations. Il les pondère également différemment selon trois modèles comportementaux : exposition , engagement et fidélité . Nous avons donc développé trois CPI qui mesurent ces comportements : l'Exposition CPI , l'Engagement CPI et la Loyalty CPI .
Dans le contexte de l'engagement, nous avons l'Engagement CPI qui est calculé en mesurant la lecture attentive et le parcours du lecteur au sein du site ou du domaine. Il offre un moyen beaucoup plus avancé et précis de mesurer l'engagement que le simple examen du temps passé sur la page, qui est une mesure unique dans GA et les outils d'analyse similaires.
3. Visiteurs récurrents
Afin de comprendre ce que sont les visiteurs récurrents, nous devons examiner brièvement la façon dont Google Analytics et la plupart des outils d'analyse actuels suivent les utilisateurs.
La première fois qu'un appareil (ordinateur de bureau, tablette, appareil mobile) ou un navigateur (Chrome, Firefox, Internet Explorer) charge le contenu de votre site Web, le code de suivi de Google Analytics lui attribue un identifiant aléatoire et unique appelé identifiant client, puis l'envoie. au serveur GA
L'identifiant unique est compté comme un nouvel utilisateur unique dans GA. Chaque fois qu'un nouvel identifiant est détecté, GA compte un nouvel utilisateur. Si l'utilisateur supprime les cookies du navigateur, l'identifiant est supprimé et réinitialisé.
En gardant cela à l'esprit, un visiteur récurrent est celui qui utilise le même appareil ou navigateur qu'auparavant pour accéder au site Web et démarrer une nouvelle session, sans effacer les cookies . Ainsi, si Google Analytics détecte l'identifiant client existant dans une nouvelle session, il le considère comme un visiteur récurrent.
Le problème avec les visiteurs qui reviennent :
Le problème du calcul des visiteurs récurrents est évident : les outils d'analyse peuvent considérer le même visiteur qui est revenu sur le site Web comme nouveau , simplement parce qu'il a changé d'appareil ou de navigateur, ou qu'il a effacé ses cookies. Personne ne peut faire grand-chose à ce sujet puisque son identifiant client est modifié de cette façon. Il n'est pas possible de suivre les utilisateurs sur différents navigateurs et appareils. De plus, Google Analytics peut compter le même visiteur comme nouveau et récurrent, s'il revient dans un certain laps de temps. Cela signifie qu'il peut y avoir un chevauchement entre les nouveaux visiteurs et les visiteurs connus, ce qui entraîne des divergences dans les données. De plus, un même utilisateur peut être compté deux fois pour la même source/support.
Cependant, il y a ici un problème bien plus important :
De nombreux éditeurs ont accepté les visiteurs récurrents comme mesure indiquant le nombre de lecteurs fidèles, ce qui est une erreur logique.
Les visiteurs récurrents indiquent le nombre de personnes qui ont visité votre site Web dans le passé et sont ensuite revenues. Cependant, ce rapport ne dit rien sur :
- Dans quelle mesure votre contenu attire-t-il les visiteurs ?
- Le comportement humain réel (comment les gens interagissent avec votre contenu)
- La fréquence et la récence de leurs visites
- Que ces visiteurs soient réellement fidèles à votre publication ou simplement des fouineurs occasionnels qui étaient sur votre site Web auparavant (c'est-à-dire que ces visiteurs ont pris l' habitude de visiter votre publication ou sont simplement tombés par hasard sur votre site Web plus d'une fois au cours d'une certaine période de temps) pour des raisons XY)
Pour mieux comprendre cette métrique, nous pouvons essayer de l’expliquer avec une simple analogie. Si une personne se rend dans un magasin, le quitte et revient, sans intention spécifique ni réellement effectuer un achat, cette personne est-elle un client fidèle par défaut ? Pas vraiment. C’est possible, mais on ne peut pas vraiment le savoir.
Encore une fois, nous devons souligner que les visiteurs récurrents mesurent l'activité du navigateur et cela n'a rien à voir avec la fidélité.
Comment les éditeurs tentent de donner un sens aux visiteurs qui reviennent :
De nombreux éditeurs choisissent d’ignorer ces erreurs de calcul ou ne savent même pas comment les choses sont réellement mesurées. Ils prennent en compte le ratio de nouveaux visiteurs par rapport aux visiteurs connus pour avoir une vue d'ensemble du type de trafic que leur site Web attire, même s'il n'est pas très précis. Ils comparent ensuite des éléments tels que le nombre de sessions ou la durée moyenne de visite de la page, dans le but de découvrir les similitudes et les différences entre la manière dont les visiteurs anciens et nouveaux interagissent avec leur site Web. De plus, ils peuvent choisir d'appliquer la segmentation et de générer des rapports personnalisés pour plus de détails sur leurs visiteurs.
Néanmoins, ces rapports sont basés sur des mesures uniques qui ne fournissent pas d'informations exploitables lorsqu'il s'agit de mesurer les performances du contenu.
Une autre chose que les éditeurs peuvent utiliser pour obtenir des données plus précises est le suivi de l'identifiant de l'utilisateur , c'est-à-dire l'établissement d'un système de connexion sur leur page Web où les utilisateurs peuvent se connecter. Une fois connectés, les utilisateurs peuvent être facilement suivis sur tous les appareils. Cependant, GA ne fonctionne pas de manière rétroactive, donc si vous choisissez de mettre en œuvre un système de connexion, il ne connectera aucune session précédente. Le problème brûlant ici est que vos visiteurs ne choisiront probablement pas de se connecter à votre site Web si le contenu est disponible de toute façon.
Comment nous avons abordé ce problème :
L'équipe des laboratoires de Content Insights s'est particulièrement intéressée à la compréhension et à la définition des lecteurs fidèles, ainsi qu'à la recherche d'un moyen de mesurer la fidélité .
Enfin, nous avons défini les lecteurs fidèles comme étant « systématiquement très engagés » , car cela correspond le plus fidèlement à leur habituel . Il existe une manière spécifique de compter leurs « jours actifs » dans les analyses du CI pour garantir qu'ils interagissent réellement avec le contenu.
Contrairement à d'autres outils d'analyse, nous mesurons la fidélité au niveau du contenu, car c'est ce qui compte vraiment. Les éditeurs souhaitent identifier les éléments de contenu qui encouragent un comportement fidèle et contribuent peut-être à convertir les lecteurs fidèles en abonnés.
Grâce aux dernières améliorations de notre CPI de fidélité , il est désormais possible de mesurer exactement cela. Ce modèle comportemental examine la manière dont les articles contribuent à la fidélité globale de votre base de lecteurs sur le site Web.
"Si ce n'est pas cassé, ne le répare pas"
Nous avons créé un aperçu des métriques uniques les plus fréquemment utilisées et montré en détail pourquoi il est erroné de baser les rapports sur les performances du contenu sur celles-ci.
Le problème brûlant ici est que de nombreux éditeurs d’aujourd’hui ne prennent pas la peine de comprendre la façon dont les choses sont calculées.
Par exemple, les éditeurs seront convaincus que lorsqu'ils demanderont le rapport d'audience dans l'AG, ils obtiendront des informations précises et fiables sur la façon dont leur audience consomme leur contenu. Mais chaque rapport dans GA, en tant qu'outil prêt à l'emploi, repose sur des métriques uniques qui décrivent les événements du navigateur .
Ces rapports ne peuvent pas mesurer correctement le comportement humain et sa complexité, quel que soit le nom que vous leur donnez. De nombreux outils d’analyse sur le marché ont construit des récits entiers qui sont en fait faux et trompeurs, car vous ne pouvez pas vraiment mesurer les choses qui vous sont promises.
Vous pouvez appeler un chat un tigre et prétendre que tout va bien simplement parce qu'il appartient au même arbre généalogique de félins, mais à un moment donné, l'erreur remontera à la surface et deviendra douloureusement évidente pour toutes les principales parties prenantes. Un miaulement n'est pas un rugissement.
Certains éditeurs commencent à se rendre compte qu’il est erroné de se fier à des indicateurs uniques pour mesurer les performances du contenu, mais ils choisissent de fermer les yeux. D’autres ne sont pas encore conscients du fait que le problème existe.
Étant donné que les gens sont naturellement très réticents au changement, de nombreux éditeurs s'en tiennent au principe « si ce n'est pas cassé, ne le répare pas ». Leur logique est saine : ils ont utilisé des indicateurs uniques et ont réussi à joindre les deux bouts. Le changement signifie qu'il existe un risque de perte de contrôle, qu'il est marqué par une « incertitude », qu'il impose un travail supplémentaire et qu'il est généralement effrayant, voire terrifiant.
Cependant, les choses SONT cassées et doivent être réparées.
Comme tous les changements fondamentaux, ce passage de métriques uniques à des métriques complexes suit ce que l'on appelle la loi du mouvement d'Hemingway : cela se produit progressivement, puis soudainement. Et comme pour tout type de technologie ou de méthode disruptive qui fait avancer le monde, les premiers utilisateurs bénéficient d’un avantage concurrentiel. Nous l'avons vu se produire. C'est ainsi que fonctionne le progrès.
Désormais, les projecteurs sont braqués sur vous. Quelles analyses utilisez-vous ? Comment donner du sens aux données ? Quelle est votre métrique « étoile du Nord » pour mesurer les performances du contenu ? Nous vous invitons à rejoindre cette conversation et à partager vos réflexions dans les commentaires ci-dessous.