Articles

Un petit condensé des nouveautés Google avec beaucoup de news, notamment la 2ème grosse mise à jour 2020 du noyau de Google, les soucis d’indexation du moteur de recherche, le bloquage de Google analytics par Safari, ainsi que des évolutions améliorant toujours un peu l’expérience utilisateur.

Nouvelle mise à jour Noyau Google de mai

 

Pour rappel,  les « Google Core Updates » impactent la façon dont Google classifie les pages référencées au sein de son moteur de recherche.

Il s’agit de la 2ème mise à jour du noyau pour 2020.

 

Le 4 mai google a lancé sa nouvelle mise à jour du noyau de l’algorithme (qui a mis 2 semaines à se déployer complètement).
Cette mise à jour a montrée des hausses et des baisses significatives sur plusieurs sites. Les sites les plus touchés étant ceux concernant les jeux et le gaming, puis certains sites dans les thématiques actualités/business/arts/divertissement et communautés en ligne ont été également fortement impactés (en positif ou en négatif)

Le graphique ci dessous vous montre l’impact de la mise à jour de mai par rapport à celle de janvier 2020:

 

Aussi, tout ce qui a touché aux personnalités publiques (entités nommés) à subi une forte chute, Google préférant mettre avant des actualités récentes plutôt que des biographies.

 Sistrix nous indique les sites français ressortant « gagnants »de cette mise à jour  :

Source:

blogdumoderateur

creapulse: Toutes les mises a jour de Google

abondance

journaldunet

moz

Google a encore des problèmes d’indexation

Courant 2019, Google a eu de nombreux problèmes d’indexation et il semble que cette année il continue dans sa lancée.

Google a indiqué qu’il rencontrait début juin des « problèmes d’indexation », pouvant entraîner des « résultats de recherche obsolètes dans certains cas », sans donner plus de détails.

Ce bug a surtout touché les sites de presse et d’édition, autant de grands sites comme le « New York Times » ou le « Wall Street Journal » que des blogs ou des sites de petits éditeurs. Ces sites n’apparaissaient plus dans les résultats des serps !

A noter aussi que les résultats provenant de LinkedIn avaient également disparu.

 

Des mini bugs avaient déjà été repérés en avril – mai. Un correctif a été mis en place, et les problèmes ont été résolus rapidement.

Sources:

secrets2moteurs

blogdumoderateur

abondance

 

Google Analytics et Double Click bientôt limités par Apple sur son navigateur « Safari »

 

Lors de sa conférence WWDC 2020, Apple a lancé de nombreuses évolutions pour les développeurs, et a notamment annoncé souhaiter augmenter la rapidité de son navigateur safari en bloquant certains trackers qui récoltent les données utilisateurs.

Durant la présentation, nous retrouvons Google « Analytics » dans la liste des trackers qu’ils souhaitent bloquer, mais également DoubleClick pour Google (solution publicitaire). Il s’avère en réalité que safari continuera de collecter les données classiques de Google Analytics tant qu’il est utilisé en tant que cookie first-party, c’est à dire en tant que cookie interne au site. La mauvaise nouvelle est pour ceux (dont certains de mes clients 🙁  ) qui utilisent le tracking cross domain. Dans ce cas, les données seront bloquées par safari.

Par contre Amazon, et Optimizely par exemple, auront leurs trackers totalement bloqués.

A noter que :

  • 18% des recherches web se font sur safari
  • et 24% des recherches mobiles sont sur Safari.

La limitation des trackers Google Analytics pourrait intervenir dès la rentrée, période à laquelle Apple à l’habitude de déployer les nouveautés annoncées lors de sa conférence annuelle WWDC.

 

Sources:

blogdumoderateur

Google effacera vos données après 18 mois

 

 

Concernant les nouvelles ouvertures de compte, par défaut, google ne conservera qu’un historique d’activité limité à 18 mois pour les activités web et les applications.

Cette durée permettre à google de mieux prédire les événements par rapport à ceux de l’année précédente pour améliorer l’expérience utilisateur.

L’historique des positions sera automatiquement désactivé, et un historique 36 mois sera gardé pour l’historique de youtube.

Source:

Frandroid

Mises à jour améliorant l’Expérience Utilisateur UX (Chrome, vidéos etc)

Août 2020 : Google va bloquer les publicités trop lourdes

Depuis 2018, un filtre existe sur Chrome pour bloquer certains formats de publicités trop intrusives.
Google a développé l’idée et va mettre en place une mise à jour pour bloquer les publicités trop lourdes.

Qu’est ce que Google considère comme « publicité trop lourde » ? :

  • Une publicité trop lourde pour Google a pour seuil 4 Mb de bande passante
    et/ou
  • 15 secondes d’usage CPU en 30 secondes ou 60 secondes d’usage CPU en tout.

Au final, cette mesure ne concernera qu’environ 0,3% des encarts publicitaires, mais qui représente quand même : 27% de bande passante en moins consommée par les publicités et 28% de l’énergie puisée par les microprocesseurs.

Si la publicité dépasse ces seuils, elle sera automatiquement bloquée par Google Chrome. Cette fonctionnalité devra améliorer fortement l’expérience utilisateur.

Google va bloquer 3 formats spécifiques de publicité

• Les annonces/groupes d’annonces, en bande annonce de vidéos de plus de 31 secondes et que l’on ne peut désactiver avant les 5 secondes d’intro.
• Les annonces qui apparaissent en plein milieu du visionnage de vidéos par l’utilisateur.
• Les annonces (photos/textes) qui couvrent plus de 20% du contenu de la vidéo.

Google interdira ces publicités à partir du 05/08/2020 pour répondre nouvelles directives de la « Coalition for Better Ads ».
Youtube, Facebook, et Microsoft faisant partie de cette coalition devront également aussi se mettre aux normes.

Mise à jour Google de sa politique pour lutter contre la contrefaçon

Pour rappel, en 2012 Google a lancé la mise à jour « pirate update » qui s’attaquait aux sites qui violaient les droits d’auteurs et les empêchaient de bien se classer dans les positions de serp.
Avec la nouvelle update de lutte contre la contrefaçons que Google va mettre en place , vous pouvez dénoncer les sites qui proposent de la marchandise contrefaite, (après analyse d’un expert Google).

Qu’est ce qui est considéré comme contrefait par Google ?

  • Tout article comportant une marque ou un logo identique (ou presque) à ceux d’un autre produit
  • Imitant les caractéristiques d’une marque afin d’être volontairement confondus avec le produit authentique du propriétaire de celle-ci.
  • Cela s’appliquera qu’aux contrefaçons d’article et non de marque.

Sources:

siecledigital

blogdumoderateur

arobasenet

Googlescope : nouvelle extension qui permet de facilement réaliser des recherches avancées sur Google

Googlescope est apparu début juin et est déjà utilisée par plus de 4 000 personnes aujourd’hui.
elle permet de faire des recherches avancées sur Chrome :

  • par pays,
  • par langue
  • par période
  • par correspondance de mots
  • en fonction de la section où le terme apparait sur un site (titre, contenu, url, lien)
  • avec des mots non inclus dans les résultats
  • par domaine
  • par date de dernière mise à jour
  • par type de fichier

vous pouvez combiner jusqu’à 9 critères pour faire des recherches complexes.

J’en profite aussi pour rappeler une extension que j’ai découvert il y  a peu  « keyword surfer » qui apporte pleins d’informations sur les mots clés recherchés sur Google (volume de recherche, mots clés associés, % de similarité, etc..)

Source:

siecledigital

Créer un tableau de bord SEO devrait être l’étape essentielle avant de commencer un audit SEO ou maintenir un suivi pour tout référenceur. Un bon tableau de bord permet d’avoir une vue synthétique des principaux axes d’améliorations du site dans le but d’apporter des optimisations concrètes. Les logs enregistrés par le site permettent de récupérer des informations impossibles à récupérer autrement, notamment le passage de Googlebot. Je vais essayer de vous montrer ici comment récupérer certains indicateurs, grace aux logs, indispensables pour réaliser un vrai audit SEO.

Exemple d’un tableau de bord SEO

Voici une vidéo qui explique et illustre rapidement ce qu’on peut obtenir dans un tableau de bord SEO grâce aux logs. Et pour plus de détails, les formules pour calculer certains KPI avec les logs par exemple, il faut lire l’article.

Pourquoi analyser les logs pour optimiser le SEO d’un site ?

Analyser les logs d’un site est le seul moyen pour savoir ce que voit Google sur votre site. Sauf pour les petits sites de quelques dizaines de pages, Google ne connait jamais l’intégralité des pages d’un site. Et si il connait certaines des pages d’un site, il ne va pas crawler toutes les pages à la même fréquence, et ca ne signifiera pas pour autant qu’elles seront indéxées ou même bien positionnées. On verra plus tard que la fréquence de passage de googlebot sur une page influe sur ses chances de faire des visites ou pas.

Donc avec les logs, on peut savoir:

  • Quelles pages Google connait
  • Combien de fois Googlebot crawle une page sur une période donnée
  • Combien de visites une page fait
  • La fenêtre de crawl . : La fréquence de crawl Googlebot nécéssaire pour qu’une page ait des chances de faire des visites
  • Les mots clés tapés sur Google lors de la visite (le peu qui reste car beaucoup de « not provided »)

Mais là où ça devient vraiment intéréssant, c’est lorsqu’on croise les données des logs avec les données d’un outil de crawl comme botify, oncrawl ou encore screaming frog. Car avec ces outils on va récupérer les urls qui existent sur le site et on va donc pouvoir comparer avec les urls que connait Google.

Avec les données de logs croisées avec les données d’un crawler, on peut savoir:

  • Quelles sont les pages orphelines : les pages que connait Google mais inaccessibles sur le site
  • Les pages non crawlées par Google: les pages qui existent sur le site mais Google ne voit pas
  • Quel est le taux de crawl : Le ratio entre les pages accessibles depuis la structure du site et ce que Google connait
  • Le taux de pages actives : Le ratio entre les pages accessibles depuis la structure du site et celles qui font des visites

Vous me direz, des outils comme botify et oncrawl le font déja. Oui, mais il n’y a aucun moyen avec ces outils d’avoir facilement une vue synthétique des différents KPI par catégories du site. Par exemple, impossible de voir quel est la part de crawl de Google que représente une catégorie au sein d’un site. Ou encore plus basique, la part des visites d’une catégorie sur tout le site. Des informations pourtant essentielles pour voir d’un coup d’oeil ce qui ne va pas dans le référencement naturel du site et ce qu’il faut optimiser en priorité.

Mais on va aller encore plus loin, sortir des KPI qui n’existent tout simplement pas sur les outils cités et pourtant super intéréssants. De quoi peut-être leur donner des idées si ils lisent cet article.

Et en attendant, il y a une phase essentielle qui consiste à collecter les données, les croiser, les catégoriser afin d’établir un tableau de bord SEO grace aux logs, commençons:

Faites réaliser un audit SEO avancé de votre site.

Sites e-commerce, gros sites éditoriaux, sites volumineux

Etape 1: Croiser les urls des logs et les urls du crawl

schéma de croisement de données entre données d'un crawler et données issuees des logs

schéma de croisement de données entre données d’un crawler et données issuees des logs

Je considère que vous avez déja votre liste d’urls extraites d’un crawler (ex: sreaming frog) et votre liste d’urls issues des logs avec le crawl de Googlebot mobile et les visites depuis le moteur de recherche Google. Vous pouvez extraire les logs avec un outil comme apache log viewer ou en ligne de commande. A noter que j’ai précisé Googlebot mobile, et bien oui, depuis l’index mobile first, c’est le googlebot mobile qui devient majoritaire, ceci dit on peut très bien mixer les deux Googlebot dans les analyses de logs. Je considère aussi que vous maîtrisez les fondamentaux d’excel, rien de compliqué ceci dit.

Sur excel, vous collez votre liste d’urls issues du crawler dans une feuille nommé par exemple « urls structure ». Vous collez la liste des urls des logs dans une feuille nommé « urls logs ». Jusque là, tout va bien. Pour croiser les urls du crawler et les urls des logs, on va pas se contenter d’additionner les urls des 2 feuilles, ce serait trop facile et surtout ce serait faux. Avant de continuer il faut comprendre qu’on a plusieurs types d’urls:

  • Les urls dans la structure ET aussi dans les logs
  • Les urls dans la structure et PAS dans les logs
  • Les urls dans les logs et PAS dans la structure, ce qu’on appelle les pages orphelines (nomatch)

On va donc isoler ces différents groupes d’urls et ensuite on pourra les additionner afin d’avoir une liste complète des urls qui croisent les données de crawl du crawler et les données des logs.

Etape 1.1: Extraire les urls dans la structure ET aussi dans les logs

C’est simple, on prend notre feuille « urls structure » et on fait un rechercheV avec la feuille « urls logs » pour récupérer le volume de crawl et les visites pour chaque url présente dans la structure et que Google connait.

Etape 1.2 : Extraire les urls dans la structure et PAS dans les logs

Il s’agit des urls non connues de Google. On reste sur notre feuille « urls structure », on rajoute 2 colonnes: « structure » et »nomatch ». Pour les urls qui ont matché dans l’étape 2.1, on met 1 dans la colonne « structure ». Pour les urls qui n’ont pas matché, on met « 0 » dans la colonne nomatch. On peut en profiter pour copier coller les urls avec structure=1 / nomatch= 0 et les urls avec un crawl =0 dans une autre feuille qu’on appellera « urls non crawlées par Google ». C’était le principal intérêt de cette étape en réalité, pas vraiment essentiel pour croiser crawl et logs mais importante pour la suite.

Etape 1.3: Extraire les urls dans les logs et PAS dans la structure (nomatch)

Cette fois, on part de la feuille « urls logs » et on fait un rechercheV sur la feuille urls structure ». On rajoute une colonne qu’on appellera « nomatch ». Les urls qui matchent, on met 0 dans la colonne « nomatch » et les urls qui matchent pas, on met 1 dans la colonne « no match ». On filtre la feuille « urls logs » et la colonne « nomatch » égale à 1 et on colle les données dans une feuille qu’on apellera « nomatch ».

Etape 1.4: On mélange tout ça

Dans une feuille qu’on nommera « all urls », on ajoute les urls de la feuille « structure » et les urls de la feuille « nomatch ». On a donc bien nos urls de la structure vus par Google, non vues par Google et vues par Google mais pas dans la structure. Et avec les urls, on a biensur toutes nos données du crawler, ainsi que le volume de crawl et les visites issues des logs et une distinction pour savoir si l’url est dans la structure ou en nomatch (hors structure).

Etape 2: Catégoriser les urls

Schéma de catégorisation d'urls

Schéma de catégorisation d’urls

Pour l’instant, on s’est juste contenter de dresser une liste d’urls avec tout un tas d’informations. Mais pour créer notre tableau de bord SEO, il faut d’abord catégoriser le site. On va segmenter le site en différentes catégories: page d’accueil, pages produits, pages de menu, paginations, articles de blog, etc… Pourquoi ? Parce que sans ça, on se contentera d’avoir des données macro au niveau du site en entier uniquement ou d’une seule url, ce qui a très peu d’intérêt. C’est d’ailleurs le cas aussi pour les crawlers que j’ai cité, sans une bonne catégorisation, difficile d’en tirer quoi que ce soit d’opérationnel.

Prenons un cas concret, on a une catégorie de pages qui est fortement crawlée par Google mais dont le trafic est peu qualifié et une autre catégorie qui est peu crawlée mais dont le trafic est très qualifié. Une idée de maillage interne est d’utiliser le catégorie très crawlée pour faire des liens vers la catégorie peu crawlée et qu’on veux pousser davantage. Sans catégorisation, impossible de faire ce genre d’analyses.

Je ne vais pas ici expliquer comment catégoriser les urls d’un site, personnellement j’utilise des regex, un language puissant permettant de représenter des modèles de chaînes de caractère et qui est aussi utilisé en programmation. On peut aussi essayer de catégoriser des urls avec les filtres avancés d’excel, avec les quelques limites que ça implique mais qui peut parfois suffire pour des sites peu complexes.

A noter que si vous utilisez des outils botify ou oncrawl, les possibilités de filtrages sont un peu plus avancées que sur excel pour créer ses catégories, même si la solution des regex reste la meilleure pour avoir une catégorisation stricte et sans erreurs.

Etape 3: Extraire les KPI de base: Crawl, visites, pages uniques crawlées,..

Une fois qu’on a notre liste d’urls croisées avec les logs et catégorisée, on a fait le plus dur, ce qui n’était pas non plus insurmontable. Il s’agit maintenant de faire un tableau croisé dynamique sur excel avec les catégories en tant que ligne et les différents kpi en tant que valeur. Pour commencer, on va récupérer pour chaque catégorie les données de base provenant des logs:

  • Volume de crawl: somme du crawl
  • Volume de visites: somme des visites
  • Pages uniques uniques crawlées: Nombre d’urls crawlées
  • Pages actives: Nombre d’urls visitées

Si j’ai précisé à chaque « somme » ou « nombre » , c’est pas pour rien, car dans votre tableau croisé dynamique, il faut changer le paramètre de champ de valeur en conséquence. Par défaut, le paramètre de champ de valeur est « somme », il faudra donc bien penser à le changer en « nombre » pour les pages uniques crawlées et les pages actives.

Etape 4: Distinguer ce qui relève de la structure ou des pages orphelines

Pages orphelines (ou nomatch) = Pages vues uniquement par Google

Pages orphelines (ou nomatch) = Pages vues uniquement par Google

On reprend les kpi précédents: volume de crawl, de visites, pages uniques crawlées et pages actives mais cette fois on distingue ce qui est dans la structure ou en pages orphelines (nomatch). Même principe donc mais utilisant des filtres vu qu’on a pris le soin d’ajouter une colonne structure et une colonne nomatch. On récupère donc ceci:

  • crawl structure / crawl nomatch
  • visites structure / Visites nomatch
  • Pages uniques uniques crawlées structure / Pages uniques uniques crawlées nomatch
  • Pages actives structure / pages actives nomatch

Je vous garantis que là déja, vous avez des informations que vous n’aurez jamais avec les outils actuels du marché. Grace à ces données, vous pouvez par exemple savoir quelle est la part du crawl de google sur les pages orphelines par rapport aux pages dans la structure. Si cette part est importante c’est mauvais pour le site mais c’est une bonne piste d’optimisation pour votre audit SEO. On verra par la suite que le taux de pages actives des pages orphelines est toujours inférieur au taux de pages actives des urls dans la structure, d’où l’intérêt de ces indicateurs.

L’analyse des pages orphelines est essentielle dans le cadre d’un audit de site e-commerce par exemple. Les sites e-commerce ont tous, en fonction de la rotation des produits, des problèmes d’expiration de produits, de produits plus en stock ou plus disponible. Il est important de bien maitriser le crawl de Google sur des produits expirées qui sortent donc de la structure et qui deviennent par conséquent des pages orphelines.

Etape 5: Analyser l’efficacité des pages: Visites / crawl

Exemple client montrant les catégories de pages les plus efficaces selon le ratio visites / crawl

Exemple client montrant les catégories de pages les plus efficaces selon le ratio visites / crawl

Là aussi, c’est un indicateur que je n’ai jamais vu sur les outils du marché, même chez ceux qui croisent crawl + logs. C’est pourtant un KPI essentiel pour tout bon tableau de bord SEO et qu’on peut facilement calculer. L’indicateur visites / crawl consiste simplement à diviser les visites depuis le moteur de recherche par le crawl de Googlebot.

Par exemple:

  • Si Google explore souvent une page ou une catégorie de pages et qu’elle génère peu de visites, je considère qu’elle est peu efficace.
  • A l’inverse, Si Google crawle peu souvent une catégorie de pages et qu’elle génère beaucoup de visites, c’est une catégorie de pages efficaces.

Cette notion d’efficacité est liée au budget de crawl . Google a un temps limité lorsqu’il crawle un site, alors l’intérêt de l’indicateur Visites / crawl est multiple:

  • Orienter le crawl de Googlebot vers les pages efficaces, peu de crawlées par Google et qui font beaucoup de visites
  • Limiter ou supprimer le crawl de Googlebot vers les pages peu efficaces, très crawlées par Google et avec peu de visites
  • Se servir des pages efficaces pour pousser des pages stratégiques

Dans la pratique, je devrais rajouter un autre point car parfois des pages peu efficaces ont une légitimité à l’être davantage, car peu de contenu, peu de maillage, ou autres. C’est là que l’oeil de l’expert doit correctement analyser et interpréter les données.

Pour en revenir à notre tableau de bord SEO, il s’agit simplement de rajouter un colonne qui divise les visites sur le crawl.

Formule de l’indicateur Visites / crawl = Volume de visites / Volume de crawl Google

Plus la valeur est importante et plus notre catégorie de pages est efficace.

Et pour aller plus loin, on peut même ajouter l’indictateur visites / crawl pour les urls dans la structure et en nomatch (hors structure). Ca permettra de voir que l’efficacité des urls hors structure est moindre que celles dans la structure.

Etape 6: Calculer le taux de crawl et le taux de pages actives

Le taux de crawl c’est le ratio entre les pages vues par un crawler et les pages vues par Google. Si un site a un taux de crawl de 60%, ca signifie que Google ne voit que 60% des pages accessibles en ligne. La aussi, c’est une information qu’il faut connaitre catégorie par catégorie et non au niveau du site en entier comme le font la plupart des outils. L’objectif est d’améliorer le taux de crawl des pages génératrices de trafic et qui en ont le plus besoin. Plus Google connait de pages et plus il y aura de pages potentiellement indéxées et capables de faire des visites.

La formule du taux de crawl = urls uniques crawlées par Google dans la structure / urls dans la structure

Le taux de pages actives, c’est le ratio entre les pages qui font des visites et les pages qui existent sur le site.

La formule du taux de pages actives: Pages actives / urls connues (urls connues via le crawler et via les logs)

L’objectif sera de concentrer les efforts et de prioriser les optimisations sur les pages qui ont à la fois un taux de pages actives faible, un grand volume de pages et une bonne efficacité visites / crawl.

Vu qu ‘on distingue bien les urls de la structure et les nomatch, on peut aussi calculer:

  • un taux de crawl structure
  • un taux de crawl nomatch
  • un taux de pages actives structure
  • un taux de pages actives nomatch

Ce qui permettra notamment de mettre en évidence la nécéssité ou pas de remettre dans la structure certaines pages anciennement en nomatch. Encore une donnée que les crawlers du marché nous donnent pas.

Etape 7: Calculer le Pagerank interne des pages crawlées par Googlebot

Visualisation du pagerank interne sous forme de secteurs et sous gephi

Visualisation du pagerank interne sous forme de secteurs et sous gephi

Vous avez surement déja entendu du pagerank interne, c’est un score qui mesure le jus envoyé aux pages selon la formule du pagerank historique de Google en tenant compte uniquement des pages internes au site. En gros, cette donnée dépend fortement du nombre de liens entrants et sortants sur chaque url, et de la profondeur des pages. Même si il y a plusieurs types de pagerank et même si ce score se base uniquement sur les pages internes au site (et non le web entier, impossible à calculer) c’est une donnée intéréssante car ça montre le poids donné par la structure à chaque catégorie du site.

Certains crawlers donnent des noms différents au pagerank interne, screaming frog appelle ça le linkscore, oncrawl appelle ça l’Inrank, et Botify appele ça… le pagerank interne, normal on vient de la même « école » les fondateurs et votre serviteur. Mais les scores qui se basent sur une échelle de 1 à 10, comme c’est le cas pour le linkscore de screaming frog et le inrank de oncrawl sont très peu exploitables, car c’est une donnée trop grossière pour avoir un calcul précis du pagerank interne par catégories. Botify, en revanche le calcule correctement via ce qu’ils nomment plus exactement le « pagerank interne brut ».

On le calcule comment ce pagerank interne si on a pas botify ? D’autres outils le font assez bien comme netpeak spider et pour les utilisateurs de screaming frog, une solution consiste à passer par un script R (voir le tuto ici).

Mais attendez là, j’ai parlé du PageRank Interne (PRi), pas du PageRank Interne des pages Crawlées par Googlebot (PRic) ! En fait les scores de PRi calculés par tous les crawlers cités, botify compris, prennent en compte toutes les pages de la structure, même celles qui ne sont pas vues par Googlebot. Le PRi est donc un score de pagerank interne absolu si Google parvenait à crawler l’ensemble des pages du site.

Mais on sait très bien que ce n’est jamais le cas, sauf pour les petits sites. Si Google connait 50% du site, il faudrait calculer le pagerank interne uniquement sur ce que connait Google non ? et pas sur tout le site ! En fait les 2 scores sont intéressants, le PR i et le PR ic, mais ce dernier est plus « vrai »sur l’état du pagerank interne à un instant T vu qu’on se base uniquement sur ce que connait Google sur une période donnée. Et pour calculer ce PRic, il est donc nécessaire d’analyser les logs.

Le fait est qu’aucun crawler du marché ne calcule ce PRic qui est pourtant plus représentif du « vrai » pagerank interne que le PRi. Vu que dans notre fichier excel, on connait les urls dans la structure et crawlées par Googlebot, on peut les filtrer et calculer le pagerank interne uniquement sur ces urls là.

Dans tous les cas, que ce soit le Pri ou le PRic, on reste sur des valeurs approximatives et relatives, il n’y a pas donc pas vraiment de vrai pagerank interne au sens stricte. L’objectif de ces indicateurs est plus de se faire une idée sur la répartition du maillage interne et voir comment mieux distribuer le jus du site vers les pages génératrices de trafic et de conversions.

Etape 8: Mesurer la Fréquence de crawl

La fréquence de crawl, c’est le nombre de fois que Googlebot est passé sur une page. Pour calculer la fréquence de crawl la formule est: Volume de crawl / pages uniques crawlées. La aussi c’est un indicateur qui est rare de retrouver. De plus, si on filtre la fréquence de crawl avec uniquement les urls qui font des visites, on peut savoir combien de fois en moyenne Google doit passer sur une page pour qu’elle ait des chances de faire des visites. Valeur qu’on aura catégorie par catégorie, car la fréquence de crawl est différente d’une catégorie à l’autre.

Inutile d’avoir cette donnée au niveau du site en entier, car certaines pages comme la page d’accueil notamment, ont de très grosses fréquences de crawl, ce qui augmente la moyenne générale du site.

Etape 9: Afficher les ratios des kpi par catégories par rapport à tout le site

L’idée est d’afficher clairement sur le tableau de bord SEO quel est la part de crawl d’une catégorie par rapport à tout le site, sa part de visites, sa part de pagerank interne, sa part d’urls connues, sa part de nomatch, etc…

Ces information mises côté à côté dans un tableau de bord est certainement ce qu’il y a de plus intéressant car en un coup d’oeil, on peut voir ce qui ne va pas sur un site et ce qu’il faut optimiser.

Par exemple, si voit qu’une catégorie accapare 50% du pagerank interne pour seulement 10% des visites., on voit tout de suite que ça ne va pas.

Etape 10: Intégrer d’autres sources de données que les logs et le crawl

En plus des logs, on peut ajouter au tableau de bord SEO des données provenant du crawler biensur mais de l’outil de web analytics (ex: Google analytics), de la console de recherche Google, d’outils de suivi de positions (ex: semrush), d’outils de backlinks (ex: majestic SEO). Voici quelques exemples de KPI à ajouter au tableau de bord:

Via le crawler

  • Nombre de mots contenus sur les pages
  • Le ratio texte / html
  • La profondeur moyenne
  • Taille moyenne du title
  • Taille moyenne du H1

Des données très utiles dans le cadre d’un audit ou d’une analyse sémantique

Via l’outil de web analytics

  • Taux de rebond
  • Temps passé par page
  • Temps de chargement de pages interactive
  • Nombre de conversions

Des données importantes pour l’optimisation de l’expérience utilisateur et du SEO.

Via la console de recherche Google

  • Le CTR moyen
  • La position moyenne
  • Les impressions moyennes

La aussi des KPI utiles pour l’UX.

Via des outils comme semrush, majestic et autres

  • Volume de recherche moyen
  • Nombre de backlinks

Les possibilités de croisement de données sont nombreuses en fonction du besoin et des problématiques rencontrées. Mais une fois qu’on a pris le temps de bâtir un tableau de bord SEO avec ces informations déja, on peut vraiment prendre des décisions basées sur des données objectives et scientifiques. C’est d’ailleurs une devise que je met dans ma signature mail:

Le SEO n’est pas un art mais une science

 

Le référencement n’implique pas que la création de liens, le maillage interne et l’inclusion de mots clés pertinents dans le contenu. Bien qu’il s’agisse de  stratégies importantes, les moteurs de recherche considèrent beaucoup plus que cela lors du classement des sites Web. Les éléments  d’expérience utilisateur (UX) sont très importants pour le SEO .

Lire la suite

La recherche vocale prend de plus en plus de place dans nos habitudes de recherche, aidé par la progression de la recherche sur mobile et des assistants vocaux. Les résultats de la recherche vocale dépendent des résultats traditionnels, mais nécessitent des optimisations SEO spécifiques. On va voir comment améliorer son SEO pour la recherche vocale en détails et avec des solutions concrètes. 

Lire la suite

Le contenu fait partie des 3 critères de classement les plus importants de google, entre l’optimisation des liens internes et le netlinking. Nous allons voir d’un point de vue SEO et utilisateur comment faire pour créer un contenu de qualité.

Google n’a malheureusement pas donné de mode d’emploi précis pour que votre article soit bien classé. C’est pour cela que nous allons détailler les démarches à suivre pour créer du texte de qualité orienté vers votre audience et avec les mots clés adaptés aux moteurs de recherche.

1/Planifier une stratégie éditoriale SEO

Trop de responsables marketing attendent la fin du processus de création du contenu pour faire appel au SEO. Ils pensent pour certains qu’il suffit d’ajouter quelques mot clés et quelques liens pour optimiser le contenu d’une page.

Mais une stratégie marketing efficace commence déja par trouver les bons mots clés et l’intention de recherche des internautes . Une fois que vous avez identifié les questions que se posent votre audience, vous pouvez définir un planning éditorial qui apportent les réponses aux questions posées.

Aussi, la mise en place d’un « persona marketing » permet de comprendre les problématiques de votre audience, et ainsi de proposer des contenus adaptés à chaque étape du parcours d’achat.

Pour du contenu de qualité il faut:

  • se baser sur la compréhension des demandes de votre audience cible. Il faut utiliser le langage de vos visiteurs et apporter l’information qu’ils recherchent. Il faut parler d’eux, utiliser le « vous » et non pas le « je ». L’idée n’est pas de parler tout de suite de vos services ou produits, mais de les y faire venir subtilement et indirectement.
  • Aider le visiteur à atteindre un objectif. Le sujet de votre article doit faire une promesse et qu’il faut tenir, celui de lui apporter une information qu’il n’avait pas au début.
  • Une fois que vous avez donné, vous pouvez éventuellement recevoir. C’est le moment d’ajouter un appel à l’action vers d’autres sujets liés qui pourraient les intéresser ou vers une prochaine étape de votre entonnoir de conversion (produits, services)

2/Du contenu pour l’utilisateur

Ce qui est bon pour l’expérience utilisateur est bon pour le SEO. Quand votre cible est engagée, elle enrichit votre contenu avec ses avis, passe du temps sur votre site et ces signaux utilisateurs son pris en compte par Google.

Le but de votre article, outre d’informer, est d’être partagé sur les réseaux sociaux afin que le maximum de personnes puisse y avoir accès, de recevoir naturellement des liens depuis d’autres blogs (linkbaiting).  L’ereputation est aussi un objectif, soit de faire connaitre et développer votre marque.

Un bon article doit :

  • Être écrit dans un langage clair à destination de votre audience. Il ne doit ni être trop simple, ni trop compliqué. Il ne doit pas être composé de trop de jargons à destination uniquement des experts, sauf si votre cible principale. Il ne doit pas être trop simple non plus, afin d’être crédible et de montrer votre expertise.
  • être viral. Prenez du recul et posez vous la question: Est ce que j’ai envi de partager cet article ?
  • être facilement scannable. Avant de lire horizontalement, les lecteurs lisent verticalement. Ils recherchent , ils scannent la page rapidement pour voir si elle correspond bien à leurs attentes. Après le titre de la page, les éléments les plus importants sont le chapô qui doit être distinct du reste du contenu, puis les intertitres qui doivent être facilement identifiables (suffisamment gros), et proposer des paragraphes courts et aérés.
  • donner envi de cliquer et de lire grace à des titres (title et H1) engageants. Il doit bien sur être composé de mots clés stratégiques tout en restant naturel.
  • être composé d’un chapô qui donne tout de suite des éléments de réponse à la question posée par le titre. C’est ce qu’on appelle la méthode de la pyramide inversée, c’est à dire donner l’information essentielle dès le début puis de développer dans la corps de l’article. Il doit faire 300 caractères environ.
  • découpé en plusieurs inter-titres pour répondre à la question principale sous forme de plusieurs sous questions ou sous thématiques. Il s’agit d’anticiper l’intention de recherche du visiteur derrière le titre principal et d’y répondre.
  • doit être mieux que les concurrents. Regardez ceux qui se positionnent sur vos requêtes principales et comment votre page se démarque positivement.
  • Avoir un contenu long (plus de 1000 mots). Les contenus longs se classent mieux dans les résultats de recherche. Cependant, il faut rester concentré et répondre aux questions des lecteurs, ne pas se disperser et prendre le risque de perdre le lecteur.
  • comporté une meta-description accrocheuse. Même si la meta description n’as pas un impact direct sur le SEO, son but est d’améliorer le taux de clics (CTR) sur les pages de résultats de Google. Petite astuce: reprenez votre chapô et le résumer pour qu’il fasse 160 caractères environ.

3/ Créer du contenu correct

Il n’est pas prouvé qu’écrire du contenu sans fautes de grammaire ou d’orthographe représente un critère de positionnement pour Google. Mais c’est sans aucun doute un critère d’expérience utilisateur et de crédibilité.

Pour créer du contenu de qualité, il faut respecter les points suivants :

  • bien relire pour qu’il n’y ai aucune faute ou mauvaise interprétation, quitte à faire relire par une autre personne
  • citer vos sources et mettre les liens vers des sources d’autorité. Wikipedia représente par exemple une source considérée comme d’autorité par Google, quoi qu’on puisse en penser. Cela permettra d’ajouter de la crédibilité à votre contenu et aidera aussi le référencement de votre article.
  • Vérifier les données, les chiffres ou les statistiques que vous citez. Ce n’est pas parce que tout le monde cite une statistique, qu’elle est vérifiée. Cherchez donc les sources vous -mêmes, c’est là aussi une question de crédibilité.

4/Vérifier l’usage des mots clefs

Les utilisateurs vont trouver vos articles grâce à des mots clefs, ils sont donc très importants.

Il faut faire attention à ne pas répéter abusivement les mots clefs dans votre article afin qu’il reste lisible, naturel et surtout ne soit pas pénalisé par Google. Le filtre Google Penguin intégré au coeur de l’algorithme de Google est chargé de pénaliser la suroptimisation.

Il s’agit en fait d’utiliser un vocabulaire riche, varié, appartenant à l’univers sémantique de vos mots clés principaux.

Pour du contenu de qualité, il faut :

  • Ne pas surcharger votre texte avec les mêmes mots clefs. Jouer plutôt avec les synonymes, des mots qui sont souvent associés à vos mots clés principaux. Cependant, il faut tout de même répéter les requêtes stratégiques naturellement. N’hésitez pas à faire une rechercher dans votre texte pour vérifier la répétition de vos mots clefs principaux et trouver le juste équilibre.
  • Organiser le contenu en sous-thématiques associés aux mots clés principaux. Mettez les paragraphes les plus intéressants en premier
  • Appeler un chat, un chat. Evitez les métaphores, ça pourrait troubler la perception sémantique de Google. Soyez clair et précis, évitez les paraphrases, utilisez les termes qui vont droit au but.
  • Fournir une idée par paragraphes. Evitez de mélanger trop de sujets dans un même paragraphe, c’est perturbant pour l’utilisateur et pour Google.
  • Utilisez des mots clés du même champ sémantique de manière naturelle.
  • Les 100 premiers mots sont décisifs pour un bon référencement naturel. Ils doivent comporter vos mots clés principaux, vos mots clés secondaires, ceux présents dans les intertitres notamment et ceux qui sont souvent associés aux mots clés principaux.

N’oubliez pas de bien insérer vos mots clefs stratégiques dans vos :

  • le nom de vos fichiers image
  • Légendes
  • Titres H1/H2
  • urls

5/ Quelques astuces SEO pour optimiser votre article

  • Votre contenu doit charger rapidement, assurez-vous que vos images notamment ne ralentissent pas le chargement de votre article.
  • Veuillez à ce que votre contenu soit bien mobile friendly :images, formulaires, etc..
  • Incluez vos pages dans le sitemap XML. Même si le sitemap xml n’est pas décisif en SEO, ça aide Google à crawler rapidement votre contenu.
  • Faites attention à la pertinence de vos liens internes afin qu’ils pointent vers les contenus appropriés
  • Les pages les mieux classés ont une URL courtes, en position 1 les url ont une moyenne de 59 caractères.
  • Utilisez des urls courtes. Les pages les mieux positionnées dans les pages de résultats ont des urls de 59 caractères en moyenne.

Pour résumer

Gardez en tête des le début de la rédaction de votre contenu, qu’il faut plaire aux lecteurs et à Google pour que votre article ait du succès. Toute stratégie de contenu qui ne tient compte que de l’utilisateur ou que des moteurs de recherche, est voué a peu de succès. Même si ce n’est pas suffisant, si vous suivez les astuces ci-dessus, vous êtes déja bien parti pour rédiger du contenu de qualité.

Google met régulièrement à jour son algorithme de positionnement des résultats, plus de 500 fois par an. Pour les responsables marketing, traffic manager ou SEO, connaitre ces dates permet de comprendre les variations de positions et éventuellement d’optimiser son site pour les moteurs de recherche. Dans cet article régulièrement mis à jour, les principales mises à jour: Panda, Penguin, Index mobile first, Fred, RankBrain, … qui ont eu un impact significatif sur le classement des requêtes, n’auront plus de secrets pour vous.

Historique des mises à jour Google

Vous pouvez sur cette timeline afin de découvrir la chronologie des changements d’algorithme de Google :

Mise à jour avis produits : 21 fevrier 2023

Mise à jour concernant les langues disponibles ((le français, l’anglais, l’allemand, l’espagnol, l’italien, le portugais, le russe, l’indonésien, le néerlandais, le polonais et le vietnamien)

Mise à jour 2023

Mise à jour Spam : 14 septembre 2022

Mise à jour permettant de nettoyer des backling generés par des sites à faible notoriéte.

Mise à jour Spam : 10 septembre 2022

Mise à jour dont le but est de sanctionner les techniques de référencement qui vont à l’encontre d’une bonne expérience utilisateur.

Mise à jour septembre product reviews update : 20 septembre 2022

Mise à jour confirmée par google, 2eme partie de la mise à jour de juillet, concernant aux avis pour les produits de mauvaise qualité.

Mise à jour september core update : 12 septembre 2022

Mise à jour confirmée par google afin de renforcer le signal de contenu utile

Mise à jour helpful content update : 22 aout 2022

Mise à jour confirmée par Google afin de récompenser les contenus rédigés pour les internautes et déclasser les contenus rédigés exclusivement pour les moteurs de recherche.

Mise à jour Product Review update : 22 juillet 2022

Mise à jour confirmée par google concernant l’intégralité des résultats de ses recherche organiques

Mise à jour May 2022 : 27 mai 2022

Google a confirmé la mise à jour noyau may 2022 qui vise à fournir des resultats plus pertinents et à mieux lutter contre le spam

Mise à jour non confirmée : 18 mars 2022

Mise à jour spring

Mise à jour 2022

Mise à jour non confirmée : 30 novembre 2021

Google a confirmé cette mise à jour du noyau de l’algorithme. Cette Core Updates à un impact sur le positionnement en résultat de recherche de nombreux sites web.

Mise à jour non confirmée : 16 septembre 2021

Mise à jour non confirmée par Google

Mise à jour link spam update : 26 juillet 2021

Google confirme que : « Cette mise à jour de l’algorithme,est encore plus efficace pour identifier et annuler le spam de liens plus largement, dans plusieurs langues. Les sites participant au spam de liens verront des changements dans la recherche au fur et à mesure que ces liens seront réévalués par nos algorithmes », a écrit Google.

Mise à jour juin : 02 juin 2021

Google confirme que : « Nous avons apporté plusieurs améliorations au rapport « Expérience sur la page ». Nous avons, supprimé du rapport les widgets « Navigation sécurisée » et « Expérience publicitaire », clarifié le fait que la navigation sécurisée n’est pas utilisée comme signal de classement. Les systèmes de navigation sécurisée continuent de jouer un rôle important pour assurer la sécurité des utilisateurs de la recherche Google.

Mise à jour non confirmée : 19 mai 2021

Mise à jour sur les classements qui a entraîné un changement important sur le classement de nombreux sites, non confirmée par Google.

Mise à jour classement des évaluations de produits : 9 avril 2021

Mise à jour de l’algorithme concernant l’affichage des avis/produits/evaluations dans les pages de resultats google, en ciblant les avis d’experts et des personnes qui ont utilisé le produit au lieu de cibler la quantité des avis.

Mise à jour 2021

Mise à jour Décembre : 3 décembre 2020

Mise à jour majeure « décembre 2020 », le top 4 des sites les plus touchés positivement sont la culture et les arts, déménagement, finance, science et education. Les domaines les plus impactés positivement sont Ebay, Facebook, Linkedin et Youtube.

Mise à jour non confirmée : 15 aout 2020

Mise à jour sur le ranking, apparemment temporaire.

Mise à jour Google Glitch : 10 aout 2020

Mise à jour confirmée afin de corriger des bugs liées aux résultats de recherches et à l’indexation

Mise à jour Bug Google :  22 juin 2020

Mise à jour non confirmée afin de corriger des bugs d’indexation

Mise à jour 2020

Mise à jour May Core Update : 04 mai 2020

Evolution algorithmique importante pour google, qui a impactée beaucoup de sites surtout pour les domaines de la santé, immobilier, voyages.

Mise à jour non confirmée : 11 février 2020

Mise à jour sur les classements qui a entraîné un changement important sur le classement de nombreux sites, non confirmée par Google.

Mise à jour majeure Core update : 13 janvier 2020

Cette mise à jour fait suite à celle de bert (en octobre 2019), concernant le champ lexical.
Celle-ci a fortement modifié le classement des pages des moteurs de recherches ou « SERP ».

Mise à jour Google 2019: Florida, Medic, Bert

Mise à jour November update : 7 novembre 2019

Google nous explique qu’il s’agit d’une intelligence artificielle avec correspondance neuronale qui permet de mieux comprendre comment un mot est relié à un concept. Dorénavant, les résultats locaux et les listes Google my business peuvent s’afficher sur des requêtes qui ne correspondent pas exactement à la marque mais dont l’intention de recherche correspond.

Mise à jour Bert : 25 octobre 2019

Evolution algorithmique majeure pour google search, une des plus importantes de ces 5 derniéres années. Impactant 10% des recherches. Permet à Google de comprendre les requêtes d’une maniére plus « humaine ».  Elle permet de considérer le contexte complet d’un mot en regardant les mots qui le précèdent et le suivent.

Mise à jour non nommée : 24 septembre 2019

Google introduit deux nouveaux attributs pour les liens sortants, modifiant la façon dont  Googlebot vas traiter les liens en nofollow.

Mise à jour sur les classements de recherche : 6 juin 2019

Mise à jour majeure concernant le classement des résultats de recherche

Correction du bug sur l’index Google: 05 avril 2019

Mise à jour corrective concernant un bug de l’index de recherche.

Mise à jour Florida 2 : 12 mars 2019

Mise à jour du noyau nommée « Florida 2 » à la suite de la première mise à jour survenue en decembre 2003. Elle semble être la suite de la mise à jour Medic. C’est un changement concernant les les extraits enrichis « rich snippets ».

Mise à jour non confirmée 06 février 2019

Les signes de la mise à jour proviennent surtout du Royaume Uni, confirmé par tous les outils.

Mises à jour Google 2018 : Medic, speed update, index mobile first,..

Augmentation des résultats sur Google: 29 novembre 2018

Nouvelle augmentation significative du nombre de résultats de recherche sur Google.

Mise à jour non confirmée mise à jour google 15 octobre 2018

Augmentation des pages de résultats dans l’index de Google au 9 mars d’après Sem Rush.

Mise à jour non nommée 10 septembre 2018

Pas de confirmation de Google mais des chanchements de positions ont été constatées

Mise à jour Medic Google 01 aout 2018

Mise à jour du cœur de l’algorithme avec de gros impacts. Elle s’est déroulée sur une semaine, avec un pic les 2 premiers jours d’août. Il a particulièrement impacté le secteur médical / santé / bien être mais pas uniquement.

Mise à jour Avertissement de sécurité Chrome – 24 juillet 2018

Apres avoir averti les utilisateurs de sites non https plusieurs mois auparavant via la console de recherche et par mail, chrome 68 a commencé à marquer les sites non https comme non sécurisés.

Mise à jour non confirmé – 21 juillet 2018

Les outils de suivis d’algorithme ont signalés un changement important dans le classement des résultats, mais Google n’a pas confirmé.

Mise à jour Speed update – 9 juillet 2018

Google a déployé la mise à jour sur la vitesse des pages mobiles, faisant de la vitesse un critère de classement majeur des résultats sur mobile. Pour améliorer les temps de chargements de votre site, c’est par ici

Carrousel vidéos- 14 juillet 2018

Google a déplacé les résultats vidéos de type organique dans un carrousel de vidéos dédiés, ce qui a bouleversé le classement des résultats (SERPS). En même temps le nombre de serp avec vidéos a considérablement augmenté.

Mise à jour non confirmée – 23 mai 2018 2018

Les outils de suivi des résultats Google ont montré de grosses variations sur 3 jours (pic le 23/05) mais Google n’a pas confirmé la mise à jour.

Retour à la taille initiale des Méta description – 13 mai 2018

Apres avoir testé des longueurs d’affichage des méta description de + de 300 caractères, Google les a ramenés à la limite précédente (150-160 caractères).

Mise à jour non nommée – 27 avril 2018

Changement d’algorithme lourd avec un pic le 17/04 et qui s’est poursuivi pendant plus d’une semaine. Google a confirmé une mise a jour majeure mais n’a pas donné plus de détails, ni ne l’a nommé.

Lancement de l’Index Mobile First – 26 mars 2018

Confirmation de Google que le premier index pour mobile a été déployé. L’index mobile remplace donc l’index basé jusqu’à maintenant sur la version ordinateur d’un site. Les critères de classement sont basés sur la version mobile d’un site. Pour en savoir plus sur l’index mobile first

Test des résultats en position 0 – 14 mars 2018

Sur des requêtes heures/dates et des calculatrices de conversions d’unités, Google à commencé à afficher des résultats organiques en position zéro et un « afficher tout les résultats ».

Mise à jour Brackets – 8 mars 2018

Google a confirmé une mise à jour essentielle le 7 mars, mais les changements dans les pages de résultats sont apparus dés le 04/03, avec un 2eme pic le 08/03 et s’est poursuivi pendant 2 semaines. Soit c’était une mise à jour continue ou alors plusieurs d’affilées. Google n’a pas fourni plus de détails.

Mise à jour non nommée – 20 février 2018

Les classements ont montré de gros changements de positions (à travers un certain nombre d’outils) vers le 20/02, qui s’est rapidement stabilisé et montrant que l’algorithme a eu une mise à jour ciblée. Google n’as rien confirmé.

Mise à jour Medic – 8 janvier 2018

Google confirme la mise à jour du cœur de l’algorithme avec de gros impacts. Il s’est déroulé sur une semaine, avec une pointe les 2 premiers jours d’août. Il a particulièrement impacté le secteur médical / santé / bien être mais pas uniquement.

Mises à jour Google 2017 : Maccabee, HTTPS, Fred,..

 

Mise à jour Maccabees – 14 décembre 2017

Les sites touchés sont surtout ceux utilisant des pages satellites (pages artificielles crées uniquement pour les moteurs), les sites qui multiplient les pages très similaires pour se positionner sur des multitudes de requêtes, et aussi des sites déjà touchés par FRED, c.a.d des sites avec du contenu de mauvaise qualité ou avec bcp de publicité ou liens affiliés.

Augmentation de la taille des Méta description – 30 novembre 2017

Après avoir testé des extraits enrichis plus longs, Google les affiche sur un plus grand nombre de résultats. Cela a conduit à adopter une nouvelle limite de méta description jusqu’à 300 caractères (au lieu des 150 précédents).

Mise à jour non nommée – 14 novembre 2017

Ceux qui suivent les changements d’algorithme ont détectés de gros changements dans le classement des résultats autour du 15/11. Google n’a pas confirmé la mise à jour.

Baisse des extraits enrichis – 27 octobre 2017

Du 27 au 31 octobre, il y a une baisse substantielle du nombre d’extraits enrichis (featured snippets) qui a coïncidé avec une augmentation du knowledgegraph. Pour certaines requêtes génériques, Google a remplacé les extraits enrichis par ces blocs du knowledgegraph

Avertissement de Chrome sure la sécrité – 17 octobre 2017

Avec le lancement de Chrome 62 , Google à commencé à informer sur les sites non sécurisés. Bien qu’il ne s’agisse pas d’une mise à jour de l’algorithme il s’agit d’une étape importante de Google vers le https. A lire: Passer son site en HTTPS sans perdre son SEO

Mise à jour non nommée – 27 septembre 2017

Webmasteurs et référenceurs ont constaté des changements dans SERPS vers le 25/09, avec un pic le 27. Aucune mise à jour n’a été confirmée.

Google Jobs – 20 juin 2017

Google lance officiellement son portail d’offres d’emploi, incluant dans la recherche 3 offres d’emploi indépendantes. Les données sont collectées notamment depuis Linkedin, Monster, Glassdor, et Career builder.

Mise à jour non nommée – 17 mai 2017

Changements dans les classements sur plusieurs jours débutant le 09/05. Certains consultants comme Glenn Gabe y voient une mise à jour en rapport avec les critères de qualité de Google.

Google atteint les 50% de pages HTTPS – 16 avril 2017

La moitié des résultats organiques de page 1 étaient sécurisés https à la mi avril. Ce chiffre a augmenté de 75% fin 2017.

FRED – 8 mars 2017

Mise à jour majeure avec de gros impacts pour le référencement, notamment pour lutter contre le Spam : les sites de mauvaises qualité et privilégiant les contenus publicitaires sont sanctionnés.

Mise à jour non confirmée – 6 février 2017

Les changements d’algorithme qui ont commencé le 01/02 se sont poursuivis pendant une semaine complète, culminant le 06/02 . Les webmasters pensent qu’il s’agit d’élément séparés.

Mise à jour non nommée – 1 février 2017

Période de mises à jour algorithmiques commençant le 01/02 , avec un pic le 6. On ne sait pas s’il s’agit de plusieurs mises à jour ou d’une seule continue.

Pénalités pour interstitiels intrusifs – 10 février 2017

Google a commencé à appliquer des pénalités pour les interstitiels intrusifs et les pops up qui nuisent à l’expérience mobile avec l’avertissement de cette mise à jour 5 mois à l’avance. Changements entre le 10 et le 11/02 (mais de nombreux référenceurs ont détectés un impact minimal).

Mises à jour Google 2016 : Penguin, Possum, mobile friendly 2,..

Mise à jour non nommée – 14 décembre 2016

Plusieurs référenceurs ont vu de gros changements le 14/15 décembre. Google n’as pas confirmé de mise à jour

Mise à jour non nommée – 10 novembre 2016

Pic important le 10/11 et un autre le 18/11. Les webmasters n’étaient pas d’accord à savoir si la 1ere mise à jour était une prémice de la 2eme. Google n’a pas confirmé la mise à jour.

Penguin 4.0 phase 2 – 6 octobre 2016

La 2eme phase de Penguin est un retour en arrière (rollback) des précédentes mises à jour. L’activité post Penguin a eu un dernier pic le 06/11, mais il n’est pas clair s’il s’agissait de Pinguin ou d’une nouvelle mise à jour. Les variations des résultats ont baissé après le 06/10. A lire: Supprimer les liens de mauvaise qualité

Penguin 4.0 phase 1 – 27 septembre 2016

Lancée vers le 22-23/09, ce déploiement plus doux de Penguin dévalue les mauvais liens au lieu de pénaliser les sites. La mise à jour de penguin a pris plusieurs jours avant son déploiement complet (pic le 27/09).

Penguin 4 – 23 septembre 2016

Mise à jour majeure de Penguin en version 4. Il est maintenant intégré au coeur de l’algorithme et mis à jour en temps réel. Pénalise les sites avec des liens non naturels, avec des ancres de liens sur-optimisés,…

Baisse des résultats image – 13 septembre 2016

On enregistre une chute de 50% des SERP avec images et issus de la recherche universelle (images, vidéos, maps,..). Le changement des résultats de recherche universelle ont provoqué d’importants changement de classement, ce qui faisait surement parti d’une mise à jour beaucoup plus grande.

Possum – 01 septembre 2016

La communauté SEO a enregistré un changement majeur des résultats locaux: la zone de recherche est élargie, les entreprises avec la même adresses sont dé-dupliquées, l’ordre de saisie des mots clés a plus d’importance, les résultats locaux ne sont pas seulement en haut de page mais en milieu de page par exemple.

Mobile friendly 2 – 12 mai 2016

1 an après la mise à jour mobile initiale, mobilegeddon, Google a lancé une nouvelle version qui vient renforcer le positionnement des sites compatibles avec la recherche mobile. A lire: Optimiser son SEO pour le mobile

Mise à jour non nommée – 10 mai 2016

Plusieurs outils SEO ont montré un changement d’algorithme mais Google n’a pas confirmé.

Suppression de la colonne de droite Adwords – 23 février 2016

Grosse mise a jour de Google adwords puisque la barre liens sponsorisés à droite disparaît et la possibilité de voir 4 liens adwords en haut des pages de résultats de Google pour certaines requêtes concurrentielles. Ça signifie aussi des résultats naturels qui descendent plus bas dans les serps. Sur mobile, l’impact est encore plus grand car plus de place accordée aux pubs adwords au dessus de la ligne de flottaison.

Mise à jour non nommée – 08 janvier 2016

Plusieurs outils de suivis de l’algorithme ont enregistré un mouvement historique important, Google a confirmé une mise à jour majeure mais en précisant que celle ci ne faisait pas parti de Pingouin.

Mise à jour Google 2015 : RankBrain, Mobilegeddon, Panda, Pigeon,..

RankBrain – 26 octobre 2015

Google annonce que l’apprentissage automatique (machine learning) est en place depuis plusieurs mois. Son nom est Rank Brain et fait parti de l’algorithme de Google appelé HummingBird (Colibri). Son rôle est notamment d’interpréter les requêtes des internautes et de renvoyer des pages qui ne contiennet pas forcément les expressions recherchées, surtout pour la longue traine. RankBrain est le 3eme facteur de classement le plus influent. Le premier facteur étant le maillage interne de liens (internes et backlinks). Le second est le contenu. A lire: Optimiser son site avec un audit SEO de contenu.

Panda 4.2 – 17 juillet 2015

Mise à jour ou plus exactement rafraichissement de Panda en version 4.2 qui se déploie sur plusieurs mois. Les mêmes signaux que la précédente version sont appliqués. Il affecte 2-3% des requêtes contre 3-5% pour la version précédente.

Mise à jour qualité – 03 mai 2015

Après de nombreux rapports faisant état de changement (Phantom2), Google a reconnu qu’un changement d’algorithme majeure a eu une incidence sur les signaux de qualité, mais Google n’a pas revelé plus de détails. D’après certaines études, les signaux de qualité concernent la qualité des contenus et qualité de l’expérience utilisateur.

Mise à jour mobile Mobilegeddon – 22 avril 2015

Google a annoncé cette mise à jour de l’algorithme en avance, indiquant qu’ à partir du 21 avril il différenciera les classements pour les sites compatibles mobiles et non mobile. L’impact de cette mise à jour a été plus faible que prévu.

Mise à jour non nommée – 04 février 2015

Google n’a pas confirmé cette mise à jour, les avis divergent à savoir si elle a concerné panda ou Pingouin.

Extension de Google Pigeon – 04 février 2015

Extension de Pigeon au Canada, Royaume Uni et Australie.La mise à jour originale date de juillet 2014 aux Etats Unis.

Mise à jour Google 2014 : Penguin, Pirate, Payday..

Penguin en continu- 22 décembre 2014

Annonce de la mise à jour en continue de Pingouin plutôt que ponctuellement à des dates précises. Penguin pénalise les liens entrants artificiels.

Pirate 2.0 – 21 décembre 2014

2 ans après la mise à jour Pirate d’origine, Google a lancé une nouvelle mise à jour pour lutter contre le piratage de logiciels et supports numériques. Il pénalise notamment les sites de téléchargements ilégaux, torrents, etc…

Penguin 3.0

Google a lancé une mise à jour de Penguin qui rétrograde les sites qui ont des liens entrants de mauvaise qualité, cette mise à jour s’est étalée sur plusieurs semaines.

Mise à jour Google actualités – 01 octobre 2014

Changement d’affichage dans Google Actualités, la box « dans l’actualié » étend ses résultats au déla des sites médias traditionnels. les principaux sites d’informations on fait face à des importants changement de trafic. A lire: Optimiser son site pour Google Actualités

Fin de l’Autorship : balisage de l’auteur – 28 août 2014

Google annonce qu’il supprime la prise en compte de balisage de l’auteur (rel = author).

Mise à jour HTTPS/SSL  – 06 août 2014

Google annonce qu’il donne la préférence aux sites sécurisés, et ajoute que le HTTPS donnera un coup de fouet au classement.

Pigeon – 24 juillet 2014

Mise à jour qui a bouleversé le SEO, elle a modifié les résultats locaux et la manière dont les signaux de localisations ont été traités. Pigeon a créer des liens plus étroits avec l’algorithme local et son noyau.

Fin des images des auteurs dans les serps – 28 juin 2014

Google a annoncé le 25/06 que Google supprimerait toutes les photos d’auteurs des serps (Search Engin Results Page = Pages de résultats Google). Les images des auteurs sont supprimées définitivement le 28/06.

Payday loan 3.0 – 12 juin 2014

Cette nouvelle version de payday renforce la pénalisation des requêtes spammées. Elle vient un mois a peine après la précédente mise a jour qui concernait le contenu spammy.

Payday loan 2.0 – 16 mai 2014

Mise à jour Payday qui pénalise les sites utilisant des requêtes considérées comme spammy par Google. Des requêtes souvent utilisées par les spammers comme des requêtes pornographiques par exemple

Les sites avec trop de publicités pénalisés

Google a actualisé son algorithme nommé « top heavy », datant de 2012 et qui pénalise les sites avec trop de publicités au dessus de la ligne de flottaison (ce qui est affiché au dessus du scroll)

 

Mises à Jour 2013: HummingBird, Panda, Penguin, Phantom ..

Google réduit l’affichage de l’authorship dans les résultats – 19 décembre 2013

En 1 mois, 15% des requêtes n’affichent l’auteur dans les résultats Google pour les pages ayant inséré les balises auteurs

Penguin 2.1 – 4 octobre 2013

4 mois et demi plus tard, Google lance une nouvelle mise à jour de Penguin qui n’est pas une mise à jour majeure mais juste une actualisation des données.

Mise à jour Hummingbird (colibri) – 20 aout 2013

Google Humming permet de mieux comprendre les requêtes longue traîne et notamment la recherche conversationnelle, celle qu’on utilise en recherche vocale notamment. Cet algorithme basé sur la recherche sémantique permet de comprendre l’intention de recherche derrière les mots clés.

In depth Articles (articles de fond) – 6 aout 2013

Google ajoute un nouveau type d’actualités appellé « articles de fond » qui tend à mettre en avant les articles avec beaucoup de contenu et qui ont vocation à perdurer sur le long terme (evergreen). Pour 3% des requêtes, Google affiche un bloc de 3 résultats vers des articles de fond

Mise à jour Expansion du knowledgeGraph – 19 juillet 2013

Les résultats Google affichant le knowledgeGraph (bloc d’informations sémantiques  sur la colonne droite du moteur de recherche) ont progressé de plus de la moitié.

Mise à Jour Panda – 18 juillet 2013

Mise à jour qui a atténué certaines pénalités ultérieures de Panda.

Mise à jour payday – 11 juin 2013

Les requêtes dites spammy par Google ont été étendues de plus de la moitié.

Panda Dance – 11 juin 2013

Ce n’est pas une mise à jour Panda mais Matt Cutts a annoncé au SMX que Panda faisait des mises à jour tous les mois et qu’elles duraient pendant une dizaine de jours.

Penguin 2.0 – 22 mai 2013

4eme mise à jour de Penguin avec un impact modéré et ciblé au niveau de la page.

Phantom – 9 mai 2013

De nombreuses pertes de trafic ont été constatées sans avoir plus de détails sur la nature de cette mise à jour, d’où le nom de « phantom ».

Panda #25 – 14 mars 2013

Matt Cuts annonce la mise à jour Panda, en suggérant que ce serait surement la dernière avant son intégration dans l’algorithme. On verra que c’était pas vraiment le cas et que c’est intervenu plus tard.

Panda #24 – 22 janvier 2013

Google annonce la première mise à jour  panda de 2013, impactant 1,2% des requêtes. Panda pénalise principalement les sites comportant du contenu dupliqué

 

optimiser son SEO pour Google Actualites

Pour tout site éditorial, la présence sur Google actualités est un enjeu, pour certains ça peut même représenter plus de la moitié de leur trafic. Mais ce n’est pas évident pour plusieurs raisons: concurrence féroce, critères d’éligibilité peu transparents et trouver des infos claires est compliqué. A travers ce guide SEO complet, vous apprendrez à optimiser votre site sur Google News.

Lire la suite

Je vais vous parler d’une étude de cas qui met en évidence le rapport entre la mise à jour Mobile first, le crawl de Googlebot mobile, et l’impact sur le trafic du site.

Voici donc une étude que j’ai réalisé pour un client avec notamment une analyse de Googlebot via les logs. La demande initiale était  « Pourquoi mon site fait moins de trafic que l’année dernière ? » et « Comment rectifier le tir ? »

Lire la suite

Je parle souvent de l’intérêt de l’analyse de logs en SEO et j’avais pas pris le temps encore d’en faire un article tant le sujet peut être long et complexe à résumer dans un seul article. Je vais ici tenter d’expliquer les informations qu’on peut en extraire en analysant ces données et surtout en les croisant avec d’autres. Comme à mon habitude, je vais essayer de vulgariser au maximum mais si certains termes techniques vous échappent, je vous invite à lire les définitions autour du crawl en SEO.

Lire la suite

Depuis que Google a constaté qu’il y avait désormais plus de requêtes sur mobile que sur ordinateur dans le monde, il n’a cessé de privilégier le format mobile dans l’évolution de ses algorithmes et des fonctionnalités de son moteur de recherche. Si vous suivez ma veille SEO mensuelle, vous constaterez facilement que les principales nouveautés et mises à jour concernent souvent le mobile ces derniers mois. L’index mobile First est déjà en cours de déploiement, c’est une étape majeure qui va changer profondément la manière dont sont classés les résultats du moteur de recherche. Qu’un site site soit responsive ou propose un site mobile séparé, il y aura des changements à faire pour qu’il préserve son classement. Dans tous les cas, si le SEO est une préoccupation, il faut s’y préparer d’autant plus dans le cas d’une version mobile différente que sur ordinateur. Lire la suite