Articles

Créer un tableau de bord SEO devrait être l’étape essentielle avant de commencer un audit SEO ou maintenir un suivi pour tout référenceur. Un bon tableau de bord permet d’avoir une vue synthétique des principaux axes d’améliorations du site dans le but d’apporter des optimisations concrètes. Les logs enregistrés par le site permettent de récupérer des informations impossibles à récupérer autrement, notamment le passage de Googlebot. Je vais essayer de vous montrer ici comment récupérer certains indicateurs, grace aux logs, indispensables pour réaliser un vrai audit SEO.

Exemple d’un tableau de bord SEO

Voici une vidéo qui explique et illustre rapidement ce qu’on peut obtenir dans un tableau de bord SEO grâce aux logs. Et pour plus de détails, les formules pour calculer certains KPI avec les logs par exemple, il faut lire l’article.

Pourquoi analyser les logs pour optimiser le SEO d’un site ?

Analyser les logs d’un site est le seul moyen pour savoir ce que voit Google sur votre site. Sauf pour les petits sites de quelques dizaines de pages, Google ne connait jamais l’intégralité des pages d’un site. Et si il connait certaines des pages d’un site, il ne va pas crawler toutes les pages à la même fréquence, et ca ne signifiera pas pour autant qu’elles seront indéxées ou même bien positionnées. On verra plus tard que la fréquence de passage de googlebot sur une page influe sur ses chances de faire des visites ou pas.

Donc avec les logs, on peut savoir:

  • Quelles pages Google connait
  • Combien de fois Googlebot crawle une page sur une période donnée
  • Combien de visites une page fait
  • La fenêtre de crawl . : La fréquence de crawl Googlebot nécéssaire pour qu’une page ait des chances de faire des visites
  • Les mots clés tapés sur Google lors de la visite (le peu qui reste car beaucoup de « not provided »)

Mais là où ça devient vraiment intéréssant, c’est lorsqu’on croise les données des logs avec les données d’un outil de crawl comme botify, oncrawl ou encore screaming frog. Car avec ces outils on va récupérer les urls qui existent sur le site et on va donc pouvoir comparer avec les urls que connait Google.

Avec les données de logs croisées avec les données d’un crawler, on peut savoir:

  • Quelles sont les pages orphelines : les pages que connait Google mais inaccessibles sur le site
  • Les pages non crawlées par Google: les pages qui existent sur le site mais Google ne voit pas
  • Quel est le taux de crawl : Le ratio entre les pages accessibles depuis la structure du site et ce que Google connait
  • Le taux de pages actives : Le ratio entre les pages accessibles depuis la structure du site et celles qui font des visites

Vous me direz, des outils comme botify et oncrawl le font déja. Oui, mais il n’y a aucun moyen avec ces outils d’avoir facilement une vue synthétique des différents KPI par catégories du site. Par exemple, impossible de voir quel est la part de crawl de Google que représente une catégorie au sein d’un site. Ou encore plus basique, la part des visites d’une catégorie sur tout le site. Des informations pourtant essentielles pour voir d’un coup d’oeil ce qui ne va pas dans le référencement naturel du site et ce qu’il faut optimiser en priorité.

Mais on va aller encore plus loin, sortir des KPI qui n’existent tout simplement pas sur les outils cités et pourtant super intéréssants. De quoi peut-être leur donner des idées si ils lisent cet article.

Et en attendant, il y a une phase essentielle qui consiste à collecter les données, les croiser, les catégoriser afin d’établir un tableau de bord SEO grace aux logs, commençons:

Etape 1: Croiser les urls des logs et les urls du crawl

schéma de croisement de données entre données d'un crawler et données issuees des logs

schéma de croisement de données entre données d’un crawler et données issuees des logs

Je considère que vous avez déja votre liste d’urls extraites d’un crawler (ex: sreaming frog) et votre liste d’urls issues des logs avec le crawl de Googlebot mobile et les visites depuis le moteur de recherche Google. Vous pouvez extraire les logs avec un outil comme apache log viewer ou en ligne de commande. A noter que j’ai précisé Googlebot mobile, et bien oui, depuis l’index mobile first, c’est le googlebot mobile qui devient majoritaire, ceci dit on peut très bien mixer les deux Googlebot dans les analyses de logs. Je considère aussi que vous maîtrisez les fondamentaux d’excel, rien de compliqué ceci dit.

Sur excel, vous collez votre liste d’urls issues du crawler dans une feuille nommé par exemple « urls structure ». Vous collez la liste des urls des logs dans une feuille nommé « urls logs ». Jusque là, tout va bien. Pour croiser les urls du crawler et les urls des logs, on va pas se contenter d’additionner les urls des 2 feuilles, ce serait trop facile et surtout ce serait faux. Avant de continuer il faut comprendre qu’on a plusieurs types d’urls:

  • Les urls dans la structure ET aussi dans les logs
  • Les urls dans la structure et PAS dans les logs
  • Les urls dans les logs et PAS dans la structure, ce qu’on appelle les pages orphelines (nomatch)

On va donc isoler ces différents groupes d’urls et ensuite on pourra les additionner afin d’avoir une liste complète des urls qui croisent les données de crawl du crawler et les données des logs.

Etape 1.1: Extraire les urls dans la structure ET aussi dans les logs

C’est simple, on prend notre feuille « urls structure » et on fait un rechercheV avec la feuille « urls logs » pour récupérer le volume de crawl et les visites pour chaque url présente dans la structure et que Google connait.

Etape 1.2 : Extraire les urls dans la structure et PAS dans les logs

Il s’agit des urls non connues de Google. On reste sur notre feuille « urls structure », on rajoute 2 colonnes: « structure » et »nomatch ». Pour les urls qui ont matché dans l’étape 2.1, on met 1 dans la colonne « structure ». Pour les urls qui n’ont pas matché, on met « 0 » dans la colonne nomatch. On peut en profiter pour copier coller les urls avec structure=1 / nomatch= 0 et les urls avec un crawl =0 dans une autre feuille qu’on appellera « urls non crawlées par Google ». C’était le principal intérêt de cette étape en réalité, pas vraiment essentiel pour croiser crawl et logs mais importante pour la suite.

Etape 1.3: Extraire les urls dans les logs et PAS dans la structure (nomatch)

Cette fois, on part de la feuille « urls logs » et on fait un rechercheV sur la feuille urls structure ». On rajoute une colonne qu’on appellera « nomatch ». Les urls qui matchent, on met 0 dans la colonne « nomatch » et les urls qui matchent pas, on met 1 dans la colonne « no match ». On filtre la feuille « urls logs » et la colonne « nomatch » égale à 1 et on colle les données dans une feuille qu’on apellera « nomatch ».

Etape 1.4: On mélange tout ça

Dans une feuille qu’on nommera « all urls », on ajoute les urls de la feuille « structure » et les urls de la feuille « nomatch ». On a donc bien nos urls de la structure vus par Google, non vues par Google et vues par Google mais pas dans la structure. Et avec les urls, on a biensur toutes nos données du crawler, ainsi que le volume de crawl et les visites issues des logs et une distinction pour savoir si l’url est dans la structure ou en nomatch (hors structure).

Etape 2: Catégoriser les urls

Schéma de catégorisation d'urls

Schéma de catégorisation d’urls

Pour l’instant, on s’est juste contenter de dresser une liste d’urls avec tout un tas d’informations. Mais pour créer notre tableau de bord SEO, il faut d’abord catégoriser le site. On va segmenter le site en différentes catégories: page d’accueil, pages produits, pages de menu, paginations, articles de blog, etc… Pourquoi ? Parce que sans ça, on se contentera d’avoir des données macro au niveau du site en entier uniquement ou d’une seule url, ce qui a très peu d’intérêt. C’est d’ailleurs le cas aussi pour les crawlers que j’ai cité, sans une bonne catégorisation, difficile d’en tirer quoi que ce soit d’opérationnel.

Prenons un cas concret, on a une catégorie de pages qui est fortement crawlée par Google mais dont le trafic est peu qualifié et une autre catégorie qui est peu crawlée mais dont le trafic est très qualifié. Une idée de maillage interne est d’utiliser le catégorie très crawlée pour faire des liens vers la catégorie peu crawlée et qu’on veux pousser davantage. Sans catégorisation, impossible de faire ce genre d’analyses.

Je ne vais pas ici expliquer comment catégoriser les urls d’un site, personnellement j’utilise des regex, un language puissant permettant de représenter des modèles de chaînes de caractère et qui est aussi utilisé en programmation. On peut aussi essayer de catégoriser des urls avec les filtres avancés d’excel, avec les quelques limites que ça implique mais qui peut parfois suffire pour des sites peu complexes.

A noter que si vous utilisez des outils botify ou oncrawl, les possibilités de filtrages sont un peu plus avancées que sur excel pour créer ses catégories, même si la solution des regex reste la meilleure pour avoir une catégorisation stricte et sans erreurs.

Etape 3: Extraire les KPI de base: Crawl, visites, pages uniques crawlées,..

Une fois qu’on a notre liste d’urls croisées avec les logs et catégorisée, on a fait le plus dur, ce qui n’était pas non plus insurmontable. Il s’agit maintenant de faire un tableau croisé dynamique sur excel avec les catégories en tant que ligne et les différents kpi en tant que valeur. Pour commencer, on va récupérer pour chaque catégorie les données de base provenant des logs:

  • Volume de crawl: somme du crawl
  • Volume de visites: somme des visites
  • Pages uniques uniques crawlées: Nombre d’urls crawlées
  • Pages actives: Nombre d’urls visitées

Si j’ai précisé à chaque « somme » ou « nombre » , c’est pas pour rien, car dans votre tableau croisé dynamique, il faut changer le paramètre de champ de valeur en conséquence. Par défaut, le paramètre de champ de valeur est « somme », il faudra donc bien penser à le changer en « nombre » pour les pages uniques crawlées et les pages actives.

Etape 4: Distinguer ce qui relève de la structure ou des pages orphelines

Pages orphelines (ou nomatch) = Pages vues uniquement par Google

Pages orphelines (ou nomatch) = Pages vues uniquement par Google

On reprend les kpi précédents: volume de crawl, de visites, pages uniques crawlées et pages actives mais cette fois on distingue ce qui est dans la structure ou en pages orphelines (nomatch). Même principe donc mais utilisant des filtres vu qu’on a pris le soin d’ajouter une colonne structure et une colonne nomatch. On récupère donc ceci:

  • crawl structure / crawl nomatch
  • visites structure / Visites nomatch
  • Pages uniques uniques crawlées structure / Pages uniques uniques crawlées nomatch
  • Pages actives structure / pages actives nomatch

Je vous garantis que là déja, vous avez des informations que vous n’aurez jamais avec les outils actuels du marché. Grace à ces données, vous pouvez par exemple savoir quelle est la part du crawl de google sur les pages orphelines par rapport aux pages dans la structure. Si cette part est importante c’est mauvais pour le site mais c’est une bonne piste d’optimisation pour votre audit SEO. On verra par la suite que le taux de pages actives des pages orphelines est toujours inférieur au taux de pages actives des urls dans la structure, d’où l’intérêt de ces indicateurs.

L’analyse des pages orphelines est essentielle dans le cadre d’un audit de site e-commerce par exemple. Les sites e-commerce ont tous, en fonction de la rotation des produits, des problèmes d’expiration de produits, de produits plus en stock ou plus disponible. Il est important de bien maitriser le crawl de Google sur des produits expirées qui sortent donc de la structure et qui deviennent par conséquent des pages orphelines.

Etape 5: Analyser l’efficacité des pages: Visites / crawl

Exemple client montrant les catégories de pages les plus efficaces selon le ratio visites / crawl

Exemple client montrant les catégories de pages les plus efficaces selon le ratio visites / crawl

Là aussi, c’est un indicateur que je n’ai jamais vu sur les outils du marché, même chez ceux qui croisent crawl + logs. C’est pourtant un KPI essentiel pour tout bon tableau de bord SEO et qu’on peut facilement calculer. L’indicateur visites / crawl consiste simplement à diviser les visites depuis le moteur de recherche par le crawl de Googlebot.

Par exemple:

  • Si Google explore souvent une page ou une catégorie de pages et qu’elle génère peu de visites, je considère qu’elle est peu efficace.
  • A l’inverse, Si Google crawle peu souvent une catégorie de pages et qu’elle génère beaucoup de visites, c’est une catégorie de pages efficaces.

Cette notion d’efficacité est liée au budget de crawl . Google a un temps limité lorsqu’il crawle un site, alors l’intérêt de l’indicateur Visites / crawl est multiple:

  • Orienter le crawl de Googlebot vers les pages efficaces, peu de crawlées par Google et qui font beaucoup de visites
  • Limiter ou supprimer le crawl de Googlebot vers les pages peu efficaces, très crawlées par Google et avec peu de visites
  • Se servir des pages efficaces pour pousser des pages stratégiques

Dans la pratique, je devrais rajouter un autre point car parfois des pages peu efficaces ont une légitimité à l’être davantage, car peu de contenu, peu de maillage, ou autres. C’est là que l’oeil de l’expert doit correctement analyser et interpréter les données.

Pour en revenir à notre tableau de bord SEO, il s’agit simplement de rajouter un colonne qui divise les visites sur le crawl.

Formule de l’indicateur Visites / crawl = Volume de visites / Volume de crawl Google

Plus la valeur est importante et plus notre catégorie de pages est efficace.

Et pour aller plus loin, on peut même ajouter l’indictateur visites / crawl pour les urls dans la structure et en nomatch (hors structure). Ca permettra de voir que l’efficacité des urls hors structure est moindre que celles dans la structure.

Etape 6: Calculer le taux de crawl et le taux de pages actives

Le taux de crawl c’est le ratio entre les pages vues par un crawler et les pages vues par Google. Si un site a un taux de crawl de 60%, ca signifie que Google ne voit que 60% des pages accessibles en ligne. La aussi, c’est une information qu’il faut connaitre catégorie par catégorie et non au niveau du site en entier comme le font la plupart des outils. L’objectif est d’améliorer le taux de crawl des pages génératrices de trafic et qui en ont le plus besoin. Plus Google connait de pages et plus il y aura de pages potentiellement indéxées et capables de faire des visites.

La formule du taux de crawl = urls uniques crawlées par Google dans la structure / urls dans la structure

Le taux de pages actives, c’est le ratio entre les pages qui font des visites et les pages qui existent sur le site.

La formule du taux de pages actives: Pages actives / urls connues (urls connues via le crawler et via les logs)

L’objectif sera de concentrer les efforts et de prioriser les optimisations sur les pages qui ont à la fois un taux de pages actives faible, un grand volume de pages et une bonne efficacité visites / crawl.

Vu qu ‘on distingue bien les urls de la structure et les nomatch, on peut aussi calculer:

  • un taux de crawl structure
  • un taux de crawl nomatch
  • un taux de pages actives structure
  • un taux de pages actives nomatch

Ce qui permettra notamment de mettre en évidence la nécéssité ou pas de remettre dans la structure certaines pages anciennement en nomatch. Encore une donnée que les crawlers du marché nous donnent pas.

Etape 7: Calculer le Pagerank interne des pages crawlées par Googlebot

Visualisation du pagerank interne sous forme de secteurs et sous gephi

Visualisation du pagerank interne sous forme de secteurs et sous gephi

Vous avez surement déja entendu du pagerank interne, c’est un score qui mesure le jus envoyé aux pages selon la formule du pagerank historique de Google en tenant compte uniquement des pages internes au site. En gros, cette donnée dépend fortement du nombre de liens entrants et sortants sur chaque url, et de la profondeur des pages. Même si il y a plusieurs types de pagerank et même si ce score se base uniquement sur les pages internes au site (et non le web entier, impossible à calculer) c’est une donnée intéréssante car ça montre le poids donné par la structure à chaque catégorie du site.

Certains crawlers donnent des noms différents au pagerank interne, screaming frog appelle ça le linkscore, oncrawl appelle ça l’Inrank, et Botify appele ça… le pagerank interne, normal on vient de la même « école » les fondateurs et votre serviteur. Mais les scores qui se basent sur une échelle de 1 à 10, comme c’est le cas pour le linkscore de screaming frog et le inrank de oncrawl sont très peu exploitables, car c’est une donnée trop grossière pour avoir un calcul précis du pagerank interne par catégories. Botify, en revanche le calcule correctement via ce qu’ils nomment plus exactement le « pagerank interne brut ».

On le calcule comment ce pagerank interne si on a pas botify ? D’autres outils le font assez bien comme netpeak spider et pour les utilisateurs de screaming frog, une solution consiste à passer par un script R (voir le tuto ici).

Mais attendez là, j’ai parlé du PageRank Interne (PRi), pas du PageRank Interne des pages Crawlées par Googlebot (PRic) ! En fait les scores de PRi calculés par tous les crawlers cités, botify compris, prennent en compte toutes les pages de la structure, même celles qui ne sont pas vues par Googlebot. Le PRi est donc un score de pagerank interne absolu si Google parvenait à crawler l’ensemble des pages du site.

Mais on sait très bien que ce n’est jamais le cas, sauf pour les petits sites. Si Google connait 50% du site, il faudrait calculer le pagerank interne uniquement sur ce que connait Google non ? et pas sur tout le site ! En fait les 2 scores sont intéressants, le PR i et le PR ic, mais ce dernier est plus « vrai »sur l’état du pagerank interne à un instant T vu qu’on se base uniquement sur ce que connait Google sur une période donnée. Et pour calculer ce PRic, il est donc nécessaire d’analyser les logs.

Le fait est qu’aucun crawler du marché ne calcule ce PRic qui est pourtant plus représentif du « vrai » pagerank interne que le PRi. Vu que dans notre fichier excel, on connait les urls dans la structure et crawlées par Googlebot, on peut les filtrer et calculer le pagerank interne uniquement sur ces urls là.

Dans tous les cas, que ce soit le Pri ou le PRic, on reste sur des valeurs approximatives et relatives, il n’y a pas donc pas vraiment de vrai pagerank interne au sens stricte. L’objectif de ces indicateurs est plus de se faire une idée sur la répartition du maillage interne et voir comment mieux distribuer le jus du site vers les pages génératrices de trafic et de conversions.

Etape 8: Mesurer la Fréquence de crawl

La fréquence de crawl, c’est le nombre de fois que Googlebot est passé sur une page. Pour calculer la fréquence de crawl la formule est: Volume de crawl / pages uniques crawlées. La aussi c’est un indicateur qui est rare de retrouver. De plus, si on filtre la fréquence de crawl avec uniquement les urls qui font des visites, on peut savoir combien de fois en moyenne Google doit passer sur une page pour qu’elle ait des chances de faire des visites. Valeur qu’on aura catégorie par catégorie, car la fréquence de crawl est différente d’une catégorie à l’autre.

Inutile d’avoir cette donnée au niveau du site en entier, car certaines pages comme la page d’accueil notamment, ont de très grosses fréquences de crawl, ce qui augmente la moyenne générale du site.

Etape 9: Afficher les ratios des kpi par catégories par rapport à tout le site

L’idée est d’afficher clairement sur le tableau de bord SEO quel est la part de crawl d’une catégorie par rapport à tout le site, sa part de visites, sa part de pagerank interne, sa part d’urls connues, sa part de nomatch, etc…

Ces information mises côté à côté dans un tableau de bord est certainement ce qu’il y a de plus intéressant car en un coup d’oeil, on peut voir ce qui ne va pas sur un site et ce qu’il faut optimiser.

Par exemple, si voit qu’une catégorie accapare 50% du pagerank interne pour seulement 10% des visites., on voit tout de suite que ça ne va pas.

Etape 10: Intégrer d’autres sources de données que les logs et le crawl

En plus des logs, on peut ajouter au tableau de bord SEO des données provenant du crawler biensur mais de l’outil de web analytics (ex: Google analytics), de la console de recherche Google, d’outils de suivi de positions (ex: semrush), d’outils de backlinks (ex: majestic SEO). Voici quelques exemples de KPI à ajouter au tableau de bord:

Via le crawler

  • Nombre de mots contenus sur les pages
  • Le ratio texte / html
  • La profondeur moyenne
  • Taille moyenne du title
  • Taille moyenne du H1

Des données très utiles dans le cadre d’un audit ou d’une analyse sémantique

Via l’outil de web analytics

  • Taux de rebond
  • Temps passé par page
  • Temps de chargement de pages interactive
  • Nombre de conversions

Des données importantes pour l’optimisation de l’expérience utilisateur et du SEO.

Via la console de recherche Google

  • Le CTR moyen
  • La position moyenne
  • Les impressions moyennes

La aussi des KPI utiles pour l’UX.

Via des outils comme semrush, majestic et autres

  • Volume de recherche moyen
  • Nombre de backlinks

Les possibilités de croisement de données sont nombreuses en fonction du besoin et des problématiques rencontrées. Mais une fois qu’on a pris le temps de bâtir un tableau de bord SEO avec ces informations déja, on peut vraiment prendre des décisions basées sur des données objectives et scientifiques. C’est d’ailleurs une devise que je met dans ma signature mail:

Le SEO n’est pas un art mais une science

 

La date de publication d’une page et donc son ancienneté a un impact sur le référencement. les requêtes chaudes ont tendance à se positionner sur des pages fraiches tandis que les requêtes plus longue traîne peuvent se positionner sur des pages plus anciennes. Mais comment le mesurer clairement sur son propre site ? C’est ce que je vais essayer de faire en vous montrant comment configurer Google tag manager et Google analytics afin de mesurer les visites ou autres KPI en fonction de l’age des pages.

Pourquoi mesurer l’ancienneté des pages ?

L’idée est de calculer le nombre de jours entre la visite d’un internaute et la date de publication de la page visitée. On pourra notamment voir la répartition des visites du site en fonction de leur ancienneté. On pourra aussi voir si des articles plus anciens ont un comportement utilisateur différent d’un article plus frais: taux de rebond, temps passé par page, etc..

Ce genre d’analyses est utile pour tout type de site, même e-commerce mais il l’est particulièrement pour un site média ou un site d’actualités. C’est d’ailleurs sur un site d’actualités que je vais vous montrer un cas pratique.

Sur un de mes clients, je me suis rendu compte que les articles entre 2 et 3 mois d’ancienneté étaient particulièrement efficaces en terme de trafic alors qu’ils n’étaient pas du tout mis en avant dans la structure du site. Cet enseignement a permis d’agir opérationnellement par la création de tops d’articles qui avaient entre 2 et 3 mois d’ancienneté. C’est une des optimisations parmi d’autres qu’il est possible de faire grâce à ce type de données.

1/ Extraire la date de publication de la page

L’équation est la suivante:

Age des pages = date de la visite – date de publication

On va donc déjà commencer par extraire la date de publication. L’extraction de la date de publication dépend bien-sur de la manière dont elle est indiquée sur la page: En front, uniquement dans le code source ? Dans le cas que je présente, je récupère la date qui est indiquée en JSON dans le code source, ce qui est souvent le cas lorsque les données structurées sont bien présentes.

On va créer et stocker la date de publication dans une variable javascript personnalisée sur Google Tag Manager. Vous allez dans Variables > Nouvelle et pour le type de variable, vous choisissez « javascript personnalisée »:

Reste plus qu’à insérer la fonction qui permettra d’aller chercher la date de publication

Solution 1: on récupère directement la date de publication dans le JSON

Voici le code:

function() {
var obj = JSON.parse(document.querySelector(‘script[type= »application/ld+json »]’).innerHTML);
return obj.datePublished;
}

La date de publication se trouve dans la balise « datePublished »

Solution 2  (en 2 temps): on récupérer tout le contenu json dans une variable puis on va chercher la date dans cette variable

Cette solution permet de simplifier le code des fonctions surtout si on veux également récupérer d’autres informations contenues également dans le JSON. On peut penser à la date de mise à jour par exemple, à l’auteur  et à d’autres informations qui peuvent être intéressantes à analyser. C’est la solution que je préfère même si elle consiste à créer une étape supplémentaire puisqu’on va utiliser 2 variables au lieu d’une.

Une variable pour stocker le contenu entier du json et qu’on va appeler jsondata:

function() {
var json = document.querySelector(‘script[type= »application/ld+json »]’)
var obj = JSON.parse(json?json.innerHTML:'{}’);
return obj;
}

Et une autre variable qu’on va appeler simplement « date de publication » qui va aller chercher l’information dans jsondata:

function() {
var obj = {{jsondata}};
return obj.datePublished;
}

C’est beaucoup plus propre, et plus performant surtout si on va chercher plusieurs variables.

 

2/ Créer la fonction qui va calculer l’age des pages

J’en reviens à mon équation de départ:

Age des pages = date de la visite – date de publication

« date de publication », c’est bon, la variable est au chaud. Date de la visite, c’est la date du jour où la page a été visitée qui peut se traduite en javascript par Date.now().

Là où ça se complique c’est que la date de publication doit être au même format que la date de jour. On va pas faire une soustraction entre des patates et des haricots. On va utiliser le format timestamp, c’est à dire le format universel en informatique pour représenter  la date et l’heure.

Voila ce que ça donne pour la variable qu’on va nommer AncienneteArticle :

function() {
var datePub = {{Date de publication}};
if(datePub!==undefined){
var timePub = (new Date(datePub)).getTime();
var timeVisite = Date.now();
var msDiff = Math.abs(timePub – timeVisite );
var daysDiff = Math.floor(msDiff/(1000 * 60 * 60 * 24));
return daysDiff;
}else{
return undefined ;
}
}

En détails ligne par ligne:

ligne 1: c’est l’ouverture de la fonction

Ligne 2: on stocke notre variable GTM dans une variable qu’on nome « datepub »

Ligne 3: On vérifie que la date de publication existe

Ligne 4: On convertit la date de publication au format timestamp

Ligne 5: On récupère la date du jour dans Timevisite

Ligne 6: On fait notre soustraction: [date de publication au format timestamp] – [la date du jour]

Ligne 7 : on transforme ce résultat en jours, afin d’avoir le nombre de jours entre la visite et la date de publication de l’article.

 

Créer la dimension personnalisée sur Google Tag Manager

là c’est la partie la plus simple qui consiste à créer une dimension personnalisée avec l’ancienneté des pages en jours. L’avantage est de pouvoir croiser facilement cette donnée sur Google analytics ou via son API (ce que je prèfère).

Rien de plus simple, sur Google Tag Manager cliquez sur votre balise analytics (ou la variable qui regroupe les paramètres de votre balise) >Plus de paramètres > Dimensions personnalisées.

Et vous rentrez une valeur d’index (ex:3) et la valeur de la dimension qui correspond à la variable javascript personnalisée qu’on a crée juste avant: {{AncienneteArticle}}

Vous pouvez créer jusqu’à 20 dimensions personnalisées sur Google analytics et même 200 sur un compte analytics 360.

Créer la dimension personnalisée sur Google Analytics

Cette fois ça se passe du côté de l’administration de Google Analytics. vous cliquez sur la roue dentée pour accéder à l’admin, dans la colonne propriété, vous allez dans définitions personnalisées > dimensions personnalisées et là vous créez simplement la dimension avec le nom que vous voulez mais avec la même valeur d’index que vous avez créez sur GTM.

Exploitation des données analytics

Bon voila, après on peut s’amuser à se faire des tableaux de bord sur Google analytics ou simplement choisir la dimension personnalisée « Ancienneté de l’article » en tant que dimension secondaire

On peut bien sur extraire les données sur excel et se faire ses propres graphes:

 

Et encore mieux c’est de se faire son propre tableau bord analytics personnalisée qui centralise vos données analytics essentielles mais aussi les indicateurs de vos autres canaux marketing: adwords, facebook ads, mailing, CRM, ereputation, veille d’actualités, etc… Pour en savoir plus sur notre tableau de bord digital 360 développé par Creapulse ou pour une démo, contactez -nous:

Cliquez pour en savoir plus ou pour une démo du tableau de bord digital

 

 

 

 

Le référencement n’implique pas que la création de liens, le maillage interne et l’inclusion de mots clés pertinents dans le contenu. Bien qu’il s’agisse de  stratégies importantes, les moteurs de recherche considèrent beaucoup plus que cela lors du classement des sites Web. Les éléments  d’expérience utilisateur (UX) sont très importants pour le SEO .

Lire la suite

La migration d’un ancien site vers un nouveau, suite à une refonte, est une étape délicate qui peut s’avérer désastreuse si elle n’est pas gérée correctement. La prise en compte du SEO, avant et après la migration, est essentielle pour ne pas vous retrouver avec une perte de trafic difficile à récupérer.
On va détailler l’ensemble des étapes à suivre, avant, pendant et après la migration afin de ne pas perdre votre référencement.

Lire la suite

La recherche vocale prend de plus en plus de place dans nos habitudes de recherche, aidé par la progression de la recherche sur mobile et des assistants vocaux. Les résultats de la recherche vocale dépendent des résultats traditionnels, mais nécessitent des optimisations SEO spécifiques. On va voir comment améliorer son SEO pour la recherche vocale en détails et avec des solutions concrètes. 

Lire la suite

Google met régulièrement à jour son algorithme de positionnement des résultats, plus de 500 fois par an. Pour les responsables marketing, traffic manager ou SEO, connaitre ces dates permet de comprendre les variations de positions et éventuellement d’optimiser son site pour les moteurs de recherche. Dans cet article régulièrement mis à jour, les principales mises à jour: Panda, Penguin, Index mobile first, Fred, RankBrain, … qui ont eu un impact significatif sur le classement des requêtes, n’auront plus de secrets pour vous.

Historique des mises à jour Google

Vous pouvez sur cette timeline afin de découvrir la chronologie des changements d’algorithme de Google :

Mise à jour 2020

Mise à jour May Core Update : 04 mai 2020

Evolution algorithmique importante pour google, qui a impactée beaucoup de sites surtout pour les domaines de la santé, immobilier, voyages.

Mise à jour non confirmée : 11 février 2020

Mise à jour sur les classements qui a entraîné un changement important sur le classement de nombreux sites, non confirmée par Google.

Mise à jour majeure Core update : 13 janvier 2020

Cette mise à jour fait suite à celle de bert (en octobre 2019), concernant le champ lexical.
Celle-ci a fortement modifié le classement des pages des moteurs de recherches ou « SERP ».

Mise à jour Google 2019: Florida, Medic, Bert

Mise à jour November update : 7 novembre 2019

Google nous explique qu’il s’agit d’une intelligence artificielle avec correspondance neuronale qui permet de mieux comprendre comment un mot est relié à un concept. Dorénavant, les résultats locaux et les listes Google my business peuvent s’afficher sur des requêtes qui ne correspondent pas exactement à la marque mais dont l’intention de recherche correspond.

Mise à jour Bert : 25 octobre 2019

Evolution algorithmique majeure pour google search, une des plus importantes de ces 5 derniéres années. Impactant 10% des recherches. Permet à Google de comprendre les requêtes d’une maniére plus « humaine ».  Elle permet de considérer le contexte complet d’un mot en regardant les mots qui le précèdent et le suivent.

Mise à jour non nommée : 24 septembre 2019

Google introduit deux nouveaux attributs pour les liens sortants, modifiant la façon dont  Googlebot vas traiter les liens en nofollow.

Mise à jour sur les classements de recherche : 6 juin 2019

Mise à jour majeure concernant le classement des résultats de recherche

Correction du bug sur l’index Google: 05 avril 2019

Mise à jour corrective concernant un bug de l’index de recherche.

Mise à jour Florida 2 : 12 mars 2019

Mise à jour du noyau nommée « Florida 2 » à la suite de la première mise à jour survenue en decembre 2003. Elle semble être la suite de la mise à jour Medic. C’est un changement concernant les les extraits enrichis « rich snippets ».

Mise à jour non confirmée 06 février 2019

Les signes de la mise à jour proviennent surtout du Royaume Uni, confirmé par tous les outils.

Mises à jour Google 2018 : Medic, speed update, index mobile first,..

Augmentation des résultats sur Google: 29 novembre 2018

Nouvelle augmentation significative du nombre de résultats de recherche sur Google.

Mise à jour non confirmée mise à jour google 15 octobre 2018

Augmentation des pages de résultats dans l’index de Google au 9 mars d’après Sem Rush.

Mise à jour non nommée 10 septembre 2018

Pas de confirmation de Google mais des chanchements de positions ont été constatées

Mise à jour Medic Google 01 aout 2018

Mise à jour du cœur de l’algorithme avec de gros impacts. Elle s’est déroulée sur une semaine, avec un pic les 2 premiers jours d’août. Il a particulièrement impacté le secteur médical / santé / bien être mais pas uniquement.

Mise à jour Avertissement de sécurité Chrome – 24 juillet 2018

Apres avoir averti les utilisateurs de sites non https plusieurs mois auparavant via la console de recherche et par mail, chrome 68 a commencé à marquer les sites non https comme non sécurisés.

Mise à jour non confirmé – 21 juillet 2018

Les outils de suivis d’algorithme ont signalés un changement important dans le classement des résultats, mais Google n’a pas confirmé.

Mise à jour Speed update – 9 juillet 2018

Google a déployé la mise à jour sur la vitesse des pages mobiles, faisant de la vitesse un critère de classement majeur des résultats sur mobile. Pour améliorer les temps de chargements de votre site, c’est par ici

Carrousel vidéos- 14 juillet 2018

Google a déplacé les résultats vidéos de type organique dans un carrousel de vidéos dédiés, ce qui a bouleversé le classement des résultats (SERPS). En même temps le nombre de serp avec vidéos a considérablement augmenté.

Mise à jour non confirmée – 23 mai 2018 2018

Les outils de suivi des résultats Google ont montré de grosses variations sur 3 jours (pic le 23/05) mais Google n’a pas confirmé la mise à jour.

Retour à la taille initiale des Méta description – 13 mai 2018

Apres avoir testé des longueurs d’affichage des méta description de + de 300 caractères, Google les a ramenés à la limite précédente (150-160 caractères).

Mise à jour non nommée – 27 avril 2018

Changement d’algorithme lourd avec un pic le 17/04 et qui s’est poursuivi pendant plus d’une semaine. Google a confirmé une mise a jour majeure mais n’a pas donné plus de détails, ni ne l’a nommé.

Lancement de l’Index Mobile First – 26 mars 2018

Confirmation de Google que le premier index pour mobile a été déployé. L’index mobile remplace donc l’index basé jusqu’à maintenant sur la version ordinateur d’un site. Les critères de classement sont basés sur la version mobile d’un site. Pour en savoir plus sur l’index mobile first

Test des résultats en position 0 – 14 mars 2018

Sur des requêtes heures/dates et des calculatrices de conversions d’unités, Google à commencé à afficher des résultats organiques en position zéro et un « afficher tout les résultats ».

Mise à jour Brackets – 8 mars 2018

Google a confirmé une mise à jour essentielle le 7 mars, mais les changements dans les pages de résultats sont apparus dés le 04/03, avec un 2eme pic le 08/03 et s’est poursuivi pendant 2 semaines. Soit c’était une mise à jour continue ou alors plusieurs d’affilées. Google n’a pas fourni plus de détails.

Mise à jour non nommée – 20 février 2018

Les classements ont montré de gros changements de positions (à travers un certain nombre d’outils) vers le 20/02, qui s’est rapidement stabilisé et montrant que l’algorithme a eu une mise à jour ciblée. Google n’as rien confirmé.

Mise à jour Medic – 8 janvier 2018

Google confirme la mise à jour du cœur de l’algorithme avec de gros impacts. Il s’est déroulé sur une semaine, avec une pointe les 2 premiers jours d’août. Il a particulièrement impacté le secteur médical / santé / bien être mais pas uniquement.

Mises à jour Google 2017 : Maccabee, HTTPS, Fred,..

 

Mise à jour Maccabees – 14 décembre 2017

Les sites touchés sont surtout ceux utilisant des pages satellites (pages artificielles crées uniquement pour les moteurs), les sites qui multiplient les pages très similaires pour se positionner sur des multitudes de requêtes, et aussi des sites déjà touchés par FRED, c.a.d des sites avec du contenu de mauvaise qualité ou avec bcp de publicité ou liens affiliés.

Augmentation de la taille des Méta description – 30 novembre 2017

Après avoir testé des extraits enrichis plus longs, Google les affiche sur un plus grand nombre de résultats. Cela a conduit à adopter une nouvelle limite de méta description jusqu’à 300 caractères (au lieu des 150 précédents).

Mise à jour non nommée – 14 novembre 2017

Ceux qui suivent les changements d’algorithme ont détectés de gros changements dans le classement des résultats autour du 15/11. Google n’a pas confirmé la mise à jour.

Baisse des extraits enrichis – 27 octobre 2017

Du 27 au 31 octobre, il y a une baisse substantielle du nombre d’extraits enrichis (featured snippets) qui a coïncidé avec une augmentation du knowledgegraph. Pour certaines requêtes génériques, Google a remplacé les extraits enrichis par ces blocs du knowledgegraph

Avertissement de Chrome sure la sécrité – 17 octobre 2017

Avec le lancement de Chrome 62 , Google à commencé à informer sur les sites non sécurisés. Bien qu’il ne s’agisse pas d’une mise à jour de l’algorithme il s’agit d’une étape importante de Google vers le https. A lire: Passer son site en HTTPS sans perdre son SEO

Mise à jour non nommée – 27 septembre 2017

Webmasteurs et référenceurs ont constaté des changements dans SERPS vers le 25/09, avec un pic le 27. Aucune mise à jour n’a été confirmée.

Google Jobs – 20 juin 2017

Google lance officiellement son portail d’offres d’emploi, incluant dans la recherche 3 offres d’emploi indépendantes. Les données sont collectées notamment depuis Linkedin, Monster, Glassdor, et Career builder.

Mise à jour non nommée – 17 mai 2017

Changements dans les classements sur plusieurs jours débutant le 09/05. Certains consultants comme Glenn Gabe y voient une mise à jour en rapport avec les critères de qualité de Google.

Google atteint les 50% de pages HTTPS – 16 avril 2017

La moitié des résultats organiques de page 1 étaient sécurisés https à la mi avril. Ce chiffre a augmenté de 75% fin 2017.

FRED – 8 mars 2017

Mise à jour majeure avec de gros impacts pour le référencement, notamment pour lutter contre le Spam : les sites de mauvaises qualité et privilégiant les contenus publicitaires sont sanctionnés.

Mise à jour non confirmée – 6 février 2017

Les changements d’algorithme qui ont commencé le 01/02 se sont poursuivis pendant une semaine complète, culminant le 06/02 . Les webmasters pensent qu’il s’agit d’élément séparés.

Mise à jour non nommée – 1 février 2017

Période de mises à jour algorithmiques commençant le 01/02 , avec un pic le 6. On ne sait pas s’il s’agit de plusieurs mises à jour ou d’une seule continue.

Pénalités pour interstitiels intrusifs – 10 février 2017

Google a commencé à appliquer des pénalités pour les interstitiels intrusifs et les pops up qui nuisent à l’expérience mobile avec l’avertissement de cette mise à jour 5 mois à l’avance. Changements entre le 10 et le 11/02 (mais de nombreux référenceurs ont détectés un impact minimal).

Mises à jour Google 2016 : Penguin, Possum, mobile friendly 2,..

Mise à jour non nommée – 14 décembre 2016

Plusieurs référenceurs ont vu de gros changements le 14/15 décembre. Google n’as pas confirmé de mise à jour

Mise à jour non nommée – 10 novembre 2016

Pic important le 10/11 et un autre le 18/11. Les webmasters n’étaient pas d’accord à savoir si la 1ere mise à jour était une prémice de la 2eme. Google n’a pas confirmé la mise à jour.

Penguin 4.0 phase 2 – 6 octobre 2016

La 2eme phase de Penguin est un retour en arrière (rollback) des précédentes mises à jour. L’activité post Penguin a eu un dernier pic le 06/11, mais il n’est pas clair s’il s’agissait de Pinguin ou d’une nouvelle mise à jour. Les variations des résultats ont baissé après le 06/10. A lire: Supprimer les liens de mauvaise qualité

Penguin 4.0 phase 1 – 27 septembre 2016

Lancée vers le 22-23/09, ce déploiement plus doux de Penguin dévalue les mauvais liens au lieu de pénaliser les sites. La mise à jour de penguin a pris plusieurs jours avant son déploiement complet (pic le 27/09).

Penguin 4 – 23 septembre 2016

Mise à jour majeure de Penguin en version 4. Il est maintenant intégré au coeur de l’algorithme et mis à jour en temps réel. Pénalise les sites avec des liens non naturels, avec des ancres de liens sur-optimisés,…

Baisse des résultats image – 13 septembre 2016

On enregistre une chute de 50% des SERP avec images et issus de la recherche universelle (images, vidéos, maps,..). Le changement des résultats de recherche universelle ont provoqué d’importants changement de classement, ce qui faisait surement parti d’une mise à jour beaucoup plus grande.

Possum – 01 septembre 2016

La communauté SEO a enregistré un changement majeur des résultats locaux: la zone de recherche est élargie, les entreprises avec la même adresses sont dé-dupliquées, l’ordre de saisie des mots clés a plus d’importance, les résultats locaux ne sont pas seulement en haut de page mais en milieu de page par exemple.

Mobile friendly 2 – 12 mai 2016

1 an après la mise à jour mobile initiale, mobilegeddon, Google a lancé une nouvelle version qui vient renforcer le positionnement des sites compatibles avec la recherche mobile. A lire: Optimiser son SEO pour le mobile

Mise à jour non nommée – 10 mai 2016

Plusieurs outils SEO ont montré un changement d’algorithme mais Google n’a pas confirmé.

Suppression de la colonne de droite Adwords – 23 février 2016

Grosse mise a jour de Google adwords puisque la barre liens sponsorisés à droite disparaît et la possibilité de voir 4 liens adwords en haut des pages de résultats de Google pour certaines requêtes concurrentielles. Ça signifie aussi des résultats naturels qui descendent plus bas dans les serps. Sur mobile, l’impact est encore plus grand car plus de place accordée aux pubs adwords au dessus de la ligne de flottaison.

Mise à jour non nommée – 08 janvier 2016

Plusieurs outils de suivis de l’algorithme ont enregistré un mouvement historique important, Google a confirmé une mise à jour majeure mais en précisant que celle ci ne faisait pas parti de Pingouin.

Mise à jour Google 2015 : RankBrain, Mobilegeddon, Panda, Pigeon,..

RankBrain – 26 octobre 2015

Google annonce que l’apprentissage automatique (machine learning) est en place depuis plusieurs mois. Son nom est Rank Brain et fait parti de l’algorithme de Google appelé HummingBird (Colibri). Son rôle est notamment d’interpréter les requêtes des internautes et de renvoyer des pages qui ne contiennet pas forcément les expressions recherchées, surtout pour la longue traine. RankBrain est le 3eme facteur de classement le plus influent. Le premier facteur étant le maillage interne de liens (internes et backlinks). Le second est le contenu. A lire: Optimiser son site avec un audit SEO de contenu.

Panda 4.2 – 17 juillet 2015

Mise à jour ou plus exactement rafraichissement de Panda en version 4.2 qui se déploie sur plusieurs mois. Les mêmes signaux que la précédente version sont appliqués. Il affecte 2-3% des requêtes contre 3-5% pour la version précédente.

Mise à jour qualité – 03 mai 2015

Après de nombreux rapports faisant état de changement (Phantom2), Google a reconnu qu’un changement d’algorithme majeure a eu une incidence sur les signaux de qualité, mais Google n’a pas revelé plus de détails. D’après certaines études, les signaux de qualité concernent la qualité des contenus et qualité de l’expérience utilisateur.

Mise à jour mobile Mobilegeddon – 22 avril 2015

Google a annoncé cette mise à jour de l’algorithme en avance, indiquant qu’ à partir du 21 avril il différenciera les classements pour les sites compatibles mobiles et non mobile. L’impact de cette mise à jour a été plus faible que prévu.

Mise à jour non nommée – 04 février 2015

Google n’a pas confirmé cette mise à jour, les avis divergent à savoir si elle a concerné panda ou Pingouin.

Extension de Google Pigeon – 04 février 2015

Extension de Pigeon au Canada, Royaume Uni et Australie.La mise à jour originale date de juillet 2014 aux Etats Unis.

Mise à jour Google 2014 : Penguin, Pirate, Payday..

Penguin en continu- 22 décembre 2014

Annonce de la mise à jour en continue de Pingouin plutôt que ponctuellement à des dates précises. Penguin pénalise les liens entrants artificiels.

Pirate 2.0 – 21 décembre 2014

2 ans après la mise à jour Pirate d’origine, Google a lancé une nouvelle mise à jour pour lutter contre le piratage de logiciels et supports numériques. Il pénalise notamment les sites de téléchargements ilégaux, torrents, etc…

Penguin 3.0

Google a lancé une mise à jour de Penguin qui rétrograde les sites qui ont des liens entrants de mauvaise qualité, cette mise à jour s’est étalée sur plusieurs semaines.

Mise à jour Google actualités – 01 octobre 2014

Changement d’affichage dans Google Actualités, la box « dans l’actualié » étend ses résultats au déla des sites médias traditionnels. les principaux sites d’informations on fait face à des importants changement de trafic. A lire: Optimiser son site pour Google Actualités

Fin de l’Autorship : balisage de l’auteur – 28 août 2014

Google annonce qu’il supprime la prise en compte de balisage de l’auteur (rel = author).

Mise à jour HTTPS/SSL  – 06 août 2014

Google annonce qu’il donne la préférence aux sites sécurisés, et ajoute que le HTTPS donnera un coup de fouet au classement.

Pigeon – 24 juillet 2014

Mise à jour qui a bouleversé le SEO, elle a modifié les résultats locaux et la manière dont les signaux de localisations ont été traités. Pigeon a créer des liens plus étroits avec l’algorithme local et son noyau.

Fin des images des auteurs dans les serps – 28 juin 2014

Google a annoncé le 25/06 que Google supprimerait toutes les photos d’auteurs des serps (Search Engin Results Page = Pages de résultats Google). Les images des auteurs sont supprimées définitivement le 28/06.

Payday loan 3.0 – 12 juin 2014

Cette nouvelle version de payday renforce la pénalisation des requêtes spammées. Elle vient un mois a peine après la précédente mise a jour qui concernait le contenu spammy.

Payday loan 2.0 – 16 mai 2014

Mise à jour Payday qui pénalise les sites utilisant des requêtes considérées comme spammy par Google. Des requêtes souvent utilisées par les spammers comme des requêtes pornographiques par exemple

Les sites avec trop de publicités pénalisés

Google a actualisé son algorithme nommé « top heavy », datant de 2012 et qui pénalise les sites avec trop de publicités au dessus de la ligne de flottaison (ce qui est affiché au dessus du scroll)

 

Mises à Jour 2013: HummingBird, Panda, Penguin, Phantom ..

Google réduit l’affichage de l’authorship dans les résultats – 19 décembre 2013

En 1 mois, 15% des requêtes n’affichent l’auteur dans les résultats Google pour les pages ayant inséré les balises auteurs

Penguin 2.1 – 4 octobre 2013

4 mois et demi plus tard, Google lance une nouvelle mise à jour de Penguin qui n’est pas une mise à jour majeure mais juste une actualisation des données.

Mise à jour Hummingbird (colibri) – 20 aout 2013

Google Humming permet de mieux comprendre les requêtes longue traîne et notamment la recherche conversationnelle, celle qu’on utilise en recherche vocale notamment. Cet algorithme basé sur la recherche sémantique permet de comprendre l’intention de recherche derrière les mots clés.

In depth Articles (articles de fond) – 6 aout 2013

Google ajoute un nouveau type d’actualités appellé « articles de fond » qui tend à mettre en avant les articles avec beaucoup de contenu et qui ont vocation à perdurer sur le long terme (evergreen). Pour 3% des requêtes, Google affiche un bloc de 3 résultats vers des articles de fond

Mise à jour Expansion du knowledgeGraph – 19 juillet 2013

Les résultats Google affichant le knowledgeGraph (bloc d’informations sémantiques  sur la colonne droite du moteur de recherche) ont progressé de plus de la moitié.

Mise à Jour Panda – 18 juillet 2013

Mise à jour qui a atténué certaines pénalités ultérieures de Panda.

Mise à jour payday – 11 juin 2013

Les requêtes dites spammy par Google ont été étendues de plus de la moitié.

Panda Dance – 11 juin 2013

Ce n’est pas une mise à jour Panda mais Matt Cutts a annoncé au SMX que Panda faisait des mises à jour tous les mois et qu’elles duraient pendant une dizaine de jours.

Penguin 2.0 – 22 mai 2013

4eme mise à jour de Penguin avec un impact modéré et ciblé au niveau de la page.

Phantom – 9 mai 2013

De nombreuses pertes de trafic ont été constatées sans avoir plus de détails sur la nature de cette mise à jour, d’où le nom de « phantom ».

Panda #25 – 14 mars 2013

Matt Cuts annonce la mise à jour Panda, en suggérant que ce serait surement la dernière avant son intégration dans l’algorithme. On verra que c’était pas vraiment le cas et que c’est intervenu plus tard.

Panda #24 – 22 janvier 2013

Google annonce la première mise à jour  panda de 2013, impactant 1,2% des requêtes. Panda pénalise principalement les sites comportant du contenu dupliqué

 

optimiser son SEO pour Google Actualites

Pour tout site éditorial, la présence sur Google actualités est un enjeu, pour certains ça peut même représenter plus de la moitié de leur trafic. Mais ce n’est pas évident pour plusieurs raisons: concurrence féroce, critères d’éligibilité peu transparents et trouver des infos claires est compliqué. A travers ce guide SEO complet, vous apprendrez à optimiser votre site sur Google News.

Lire la suite

Je parle souvent de l’intérêt de l’analyse de logs en SEO et j’avais pas pris le temps encore d’en faire un article tant le sujet peut être long et complexe à résumer dans un seul article. Je vais ici tenter d’expliquer les informations qu’on peut en extraire en analysant ces données et surtout en les croisant avec d’autres. Comme à mon habitude, je vais essayer de vulgariser au maximum mais si certains termes techniques vous échappent, je vous invite à lire les définitions autour du crawl en SEO.

Lire la suite

Améliorer sa longue traîne en référencement, c’est souvent le seul moyen viable pour venir concurrencer les gros sites d’un secteur concurrentiel. Je vais vous présenter le cas d’un petit site qui a multiplié par 16 sa visibilité SEO en un peu plus d’un an grâce à l’optimisation de sa longue traîne.

Il s’agit du site https://www.coinsecret.com, un site de location de vacances, secteur ultra concurrentiel avec des sites comme abritel, homelidays, airbnb, etc… En exploitant correctement son catalogue d’offre, qui n’est pas aussi volumineux que les sites cités,  il a réussi à améliorer son référencement et à venir les taquiner en misant à fond sur la longue traîne.

Définition

Commençons par expliquer ce que c’est, la longue traîne en SEO c’est l’ensemble des expressions longues qui, une par une, sont peu recherchées mais dont le cumul représente le plus gros potentiel de trafic du site. Ce sont des expressions en général de plus de 3 mots clés, mécaniquement plus la requête est longue et plus la probabilité qu’elle soit tapée par un autre internaute diminue. On peut aussi avoir des expressions clés plus courtes et peu recherchées, dans ce cas ce sera aussi de la longue traîne.

C’est une version courte de la définition de la longue traîne qui me semble suffisante, pour une version plus longue, il y a wikipedia .

Les avantages de la longue traîne

Il y en a plusieurs:

  • le volume de longue traîne est presque infinie et même imprévisible pour de l’ultra longue traîne contrairement à la top traîne ou la moyenne traîne qui est beaucoup plus limité.
  • Le potentiel de trafic est par conséquent énorme contrairement à l’optimisations de quelques mots clés génériques
  • Le trafic issu de la longue traîne est plus qualifié, il convertit mieux. Les gens qui recherchent avec des expressions précises sont plus à même de convertir rapidement surtout si ils trouvent l’information qui répond exactement à leur demande.
  • C’est une source de trafic plus stable aussi car diversifiée, on ne met pas tous ses oeufs dans le même panier. Si on perd une position sur une expressions longue traîne, c’est pas très grave. En revanche, si le trafic d’un site dépend principalement des positions de quelques mots clés top traîne, une perte de position se fait directement ressentir.
  • C’est moins concurrentiel et donc plus facile à se positionner dessus, si le boulot est bien fait.
  • L’amélioration de la longue traîne permet aussi d’améliorer la visibilité des mots clés top et moyenne traîne. Un effet vertueux se met en place optimisant la pertinence globale du site et sa légitimité à apparaître sur des mots clés plus génériques.

Il y a bien quelques inconvénients:

  • Pour un site e-commerce, il faut avoir suffisamment de produits pour développer une stratégie de longue traîne
  • Pour un site éditorial, cela nécessite des ressources, pour créer des pages et/ou enrichir du contenu. On a rien sans rien!

Contexte du site

Coinsecret est un site de location de vacances qui propose un catalogue d’offres limitées car chaque location doit respecter une charte de qualité. Chaque logement est visité et sélectionné par le propriétaire du site ou un de ses collaborateurs. On est donc sur un positionnement haut de gamme et très qualitatif, ce qui limite forcément l’offre. Malgré tout, elle est suffisamment importante pour faire un travail intéressant et efficace, et venir grapiller des positions à certains géants du secteur qui mise tout sur la quantité et beaucoup moins sur la qualité.

Les étapes d’optimisation de la longue traîne

  1. Sur ce cas pratique, la première chose a été de réaliser un audit du site e-commerce biensûr, comme pour toute mission SEO en même temps, afin d’établir la liste des optimisations à réaliser.
  2. Une fois l’audit réalisé, et la feuille de route d’actions définies, on a commencé par mettre en place les actions de nettoyage d’autant plus qu’il était pénalisé. Le site comportait un certain nombre de pages dupliquées et de pages inutiles (des filtres et autres), on les a donc supprimé de l’index de Google et empêcher leur crawl. Il y avait aussi de la suroptimisation qu’on a corrigé. C’est une étape essentiel, car tant qu’il est pénalisé le site n’a pas la pertinence nécessaire pour la suite
  3. Le site comportait déjà une navigation par thématiques, par types d’équipements, par nombre de personnes, par ville et par région. En revanche, pas de navigation par type de logements (maison, villa, chalet, gite, etc..) alors que l’audit sémantique avait révélé des recherches sur des expressions composées du logement. On a donc crée une nouvelle navigation par type de logement.
  4. L’analyse sémantique a aussi révélé des recherches par départements, et également des recherches par zone géographique (périgord noir, périgord vert,..) on a donc également créer et pousser ce type de pages.
  5. Puis on a fait des combinaisons entre les différents filtres comme par exemple: type de logement + géoloc (région/ département / ville / zone géo) + theme ou équipement. Là c’était un peu le casse tête car on avait potentiellement beaucoup de pages dupliquées si on combinait tous les critères. Et de toute façon il ne s’agissait pas d’ouvrir tout et n’importe quoi à l’indexation des moteurs de recherche. En fonction des recherches des internautes, de la disponibilité des offres et d’une certaine priorisation dans les critères sélectionnés, on a combiné de manière « intelligente » certains critères afin de créer de nouvelles pages répondant à des requêtes longue traîne.
  6. Ensuite, il y a eu un gros travail d’optimisation du maillage interne afin de pousser ces pages.
  7. On a également injecté du contenu de manière totalement à la main pour les pages de catégories principales et de manière semi-automatiques pour d’autres.
  8. Et puis, au delà des actions spécifiques à la longue traîne, dont j’ai cité ici que les gros points, il y a eu environ 100 autres optimisations pour améliorer globalement le SEO du site: nettoyage, performances, balisages, des conseils sur l’expérience utilisateur pouvant influencer le SEO, …

A noter que très peu d’actions de netlinking (linkbuilding) ont été réalisées, c’est avant tout de l’optimisation interne. Ceci dit, un coup de pouce d’un bon netlinking de qualité, ça peux aider, mais de manière plus ciblée sur de la top / moyenne traîne surtout.

Il y a bien sûr d’autres opportunités pour créer du contenu longue traîne, j’en parle dans le guide sur l’audit sémantique.

Les résultats

  • Comme déjà dit, en un peu plus d’un an la visibilité SEO du site a été multiplié par 8 sur semrush et par 16 sur searchmetrics. La méthode de calcul des scores de ces 2 outils sont légèrement différents.
  • Côté trafic organique (depuis les moteurs de recherche en naturel), il a été multiplié par 2 sur la même période, ce qui est assez rapide pour ce type de site et compte tenu de la compétition qui s’est tendu aussi.
  • Les conversions ont progressé de 98% sur la durée de la mission, sachant 51% des conversions vient de la recherche organique contre 30% en septembre 2016.
  • Le trafic organique hors marque est de 75% en septembre 2017 contre 70% en septembre 2016.
  • Ils ont baissé leur budget adwords, le coût par acquisition du référencement naturel étant nettement meilleur que le payant.
  • En plus des expressions longue traîne, le site s’est positionné en premier sur des expressions plus concurrentielles comme « vacances originales », « vacances au château », « idée vacances france », etc…
  • Un client content, je continue d’ailleurs de travailler avec eux, notamment sur une prochaine refonte au niveau design et structurelle et sur de l’accompagnement.

Je les remercie d’avoir accepté que je parle de leur site sur cet article, car c’est pas forcément évident. J’ai d’ailleurs eu des refus notamment sur un cas très intéressant où le trafic a été multiplié par 10 en moins d’un an et ainsi atteindre près d’un million de visiteurs par mois. C’est compréhensible, certains veulent garder leurs petits secrets :).

Depuis que Google a constaté qu’il y avait désormais plus de requêtes sur mobile que sur ordinateur dans le monde, il n’a cessé de privilégier le format mobile dans l’évolution de ses algorithmes et des fonctionnalités de son moteur de recherche. Si vous suivez ma veille SEO mensuelle, vous constaterez facilement que les principales nouveautés et mises à jour concernent souvent le mobile ces derniers mois. L’index mobile First est déjà en cours de déploiement, c’est une étape majeure qui va changer profondément la manière dont sont classés les résultats du moteur de recherche. Qu’un site site soit responsive ou propose un site mobile séparé, il y aura des changements à faire pour qu’il préserve son classement. Dans tous les cas, si le SEO est une préoccupation, il faut s’y préparer d’autant plus dans le cas d’une version mobile différente que sur ordinateur. Lire la suite