Beaucoup de news en juillet: Des nouveaux outils Google pour investir les réseaux sociaux avec keen (le pinterest de google) et Google Web Stories. La mise à jour de l’index mobile first décalée et une mise à jour de Google images .Des mises à jours importantes des outils google: search console, gmail, chrome
Google à lancé la « Search Console Insights » :
Cette nouveauté permet de fournir au sein de la Search Console des données issues de Google Analytics et ainsi de croiser facilement les données de ces 2 outils :
Cette fonctionnalité permet de tester vos résultats enrichis et vos données structurées sur le même outil.
Traduction de l’annonce de Google : « Nous travaillons sur une nouvelle expérience qui combine les données de la Search Console et de Google Analytics pour vous fournir des données plus utiles sur votre site.
Dans le cadre d’un test de cette expérience, nous mettons à jour l’intégration de liens entre la Search Console et Google Analytics pour permettre l’exportation de données de votre propriété Google Analytics vers la propriété de la Search Console liée [https://www.domain.com/].
Ce changement ne concerne que votre console de recherche et nous vous informerons lorsque la nouvelle version bêta sera disponible (probablement dans quelques semaines). Lorsque ce changement aura lieu, toutes les données exportées de votre propriété Google Analytics vers votre propriété de la Search Console liée seront soumises aux conditions de service de cette dernière.
Comme auparavant, toutes les données de la Search Console exportées vers votre propriété Google Analytics continueront à être soumises aux conditions de service de Google Analytics. Si vous souhaitez désactiver le flux de données entre votre console de recherche et votre propriété Google Analytics, vous pouvez dissocier vos propriétés les unes des autres dans la page des associations de propriétés. »
Search console insights vous permettra de :
Voir un aperçu du site sur mobile et desktop
Identifier les erreurs présentes pour l’affichage des résultats enrichis d’une page et proposer un correctif
Google décale la mise à jour de l’index Mobile First à mars 2021
A cause de la pandémie, Google décale le lancement de sa mise à jour de l’Index Mobile First de 6 mois. Les sites optimisés « Mobile et Tablettes Friendly » seront avantagés, google mettra également son index à jour dans ce sens là. Le déploiement de cette fonctionnalité sera pour mars 2021 au lieu de septembre 2020 (comme initialement prévu).
Google Lance « Swirl « : Annonces publicitaires en 3D
En juin 2019, Google explique que :
“Le format Swirl permet aux consommateurs de s’engager avec un produit comme s’il était juste devant eux en leur permettant de faire pivoter, de zoomer et d’agrandir les visuels dans l’annonce. Les annonces Swirl permettent aux marques d’illustrer les changements de comportement, les performances des nouvelles technologies, les caractéristiques uniques des produits et bien plus encore”.
L’outil Google Web Designer vous aidera à créer ces publicités interactives 3d, immersives. Il permettra aux utilisateurs de faire tourner, zoomer et élargir le produit dans l’annonce.
Si vous disposez d’éléments 3D existants, importez-les dans Google Web Designer et sélectionnez l’un des modèles Swirl ou créez une création à partir de zéro.
Vous pouvez également utiliser Poly, la plate-forme de conception 3D de Google pour configurer vos modèles 3D.
Keen est une application mobile qui permet de faire de la veille, d’épingler vos idées/images et de trouver des recommandations d’autres utilisateurs.
Il vous suffit d’indiquer dans son moteur de recherche vos centre d’intérêts, et vous pourrez facilement faire de la veille, voir des articles et promouvoir les vôtres sur le même sujet. cela vous permettra également de rentrer en contact avec d’autres utilisateurs qui partagent votre centre d’intérêt.
Contrairement à Pinterest, le design est très épuré, très professionnel et il est très lisible. En fonction de ce que vous indiquez, l’intelligence artificielle vous proposera les articles les plus intéressants et également les articles connexes provenant de liens externes les plus pertinents qui pourraient vous intéresser.
Google met maintenant en relation les données du Knowledge Graph avec les résultats de Google Images.
Google comparera à travers ses algorithmes les images et le texte des images pour vous donner plus d’informations et vous proposer plus d’images.
Pour une meilleure compréhension, Google donne un exemple sur son blog:
« par exemple, disons que vous êtes à la recherche de beaux parcs nationaux à visiter à proximité. Si vous voulez vous baigner pendant votre visite, vous tapez sur la photo d’un parc avec une rivière. Sous l’image, vous pourriez voir des sujets connexes, tels que le nom de la rivière ou la ville dans laquelle se trouve le parc. Si vous touchez un sujet spécifique, la photo se développe et vous montre une brève description de la personne, du lieu ou de la chose à laquelle elle fait référence, ainsi qu’un lien pour en savoir plus et d’autres sujets connexes à explorer ».
Google a ajouté sous la fenêtre d’aperçu de l’image les détails du panneau de connaissances que vous pouvez ouvrir et développer pour afficher plus d’informations sur l’image.
Google affichera des menus déroulants sous l’aperçu de l’image qui montre plus de détails sur l’image.
Similaire au stories sur instagram, mais celles-ci seront a durée illimitée et en format de courte durée, ceux-ci peuvent s’afficher sous la forme d’un seul résultat (disponible dans toutes les régions et langues).
Google Web Stories est une nouvelle forme de pages mobiles accélérées (AMP).
Chaque storie web contient un maximum de 10 mots par page. La taille recommandée d’une histoire web se situe entre quatre et 30 pages.
Un plug-in wordpress vous permettra d’accéder à toutes les fonctionnalités des stories (encore en version beta)
Cette fonctionnalité est destinée à être utilisée par les utilisateurs mobiles qui veulent consommer du contenu rapidement. Google décrit son cœur de cible comme quelqu’un qui scrolle dans un métro ou en .déjeunant rapidement.
Web Stories est un bon moyen de se classer en haut de la recherche Google, google images, Discover, et Google App.
Google propose une refonte massive de Gmail : Google a regroupé le plus d’outil possible sur sa célèbre messagerie pour faciliter la vie à ses utilisateurs.
Un menu permettra de switcher facilement entre les emails, les vidéos, et le chat :
Un nouveau chat « Room » vous permettra de créer des canaux de discussion par sujet et par groupe.
Le travail collaboratif sera aussi facilité en intégrant l’Edition de Google Docs/sheets ou slides, en facilitant le travail avec des application tierces Google sans quitter l’interface.
Vous pourrez aussi comme sur les services de messagerie indiquer votre statut (en ligne, ne pas déranger etc),
faire des recherches globales dans les mails et rooms,
mettre certaines de vos rooms en favoris,
des notifications de mise en veille, l’attribution de tâches …
Egalement sur Apple, Gmail prend en charge le Split View sur Ipad, ce qui permettra de diviser l’écran d’un appareil iOS pour y afficher plusieurs fenêtres en même temps.
Cet outil collaboratif facilitera le télétravail, et se mettra en concurrence avec Slack et Microsoft Teams.
Egalement, Gmail sur Ipad proposere bientot le Split View, pour améliorer votre productivité : vous pourrez par exemple utiliser gmail et votre agenda sur le meme ecran.
Screaming Frog, le célebre outil de crawl qui permet d’analyser un site au niveau SEO, ne cesse de s’améliorer:
Ce logiciel est proposé en version payante mais une version gratuite est également en téléchargement et permet d’en apprendre beaucoup sur un site si on sait bien l’utiliser.
Screaming Frog SEO Spider offre la possibilité d’identifier toutes les caractéristiques importantes d’une page. Il suffit de choisir dans le champ « enter url to spider » le site que l’on souhaite étudier, de sélectionner dans « Internal » le filtre HTML et l’outil nous présente les principaux critères de toutes les pages crawlées.
Mise à jour Lockdown :
Vous pouvez dorénavant trouver des pages dupliquées ou en « near duplicate » (pages au contenu très proche). Cela vous permettra d’identifier sur les pages de qualité médiocres.
Vous pourrez faire un contrôle grammatical de vos documents
Données sur les liens améliorées – Position du lien, type de lien et cible du lien
L’onglet « Protocol » a été rebaptisé « sécurité » : des contrôles et filtres plus à jour liés à la sécurité ont été introduits.
Aspects UX améliorés
L’intégration de l’API PageSpeed Insights a été mise à jour avec les nouvelles mesures de Core Web Vitals , les données de temps de chargement d’une page côté utilisateur, avec 3 statistiques: LCP (Largest Contentful Paint: temps pour que le navigateur affiche le plus gros élément visible), FID (First Input Delay: délai entre le clic d’un internaute et le moment où la page réagit), CLS (Cumulative Layout Shift: nombre de fois que la mise en page est décalée pendant le chargement)
Plusieurs fonctionnalités Google pour la validation des données structurées ont été mises à jour.
Limitation des cookies au nom de domaine du site, pour plus de confidentialité.
Mise à jour autonomie qui permettra de gagner 2h d’autonomie, Google souhaite limiter le JavaScript sur les onglets inactifs.
Blocage des notifications intrusives envoyées par les sites web, vous pourrez choisir à l’aide d’icône si vous autorisez les notifications du site ou si vous préferez continuer à les bloquer.
https://www.creapulse.fr/wp-content/uploads/2020/07/veille-SEO-juillet-2020-1.jpg321794Anna esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngAnna esteves2020-08-04 14:11:372020-08-04 15:41:26Les News SEO de Juillet: Index mobile first, Keen, stories, screaming frog
Un petit condensé des nouveautés Google avec beaucoup de news, notamment la 2ème grosse mise à jour 2020 du noyau de Google, les soucis d’indexation du moteur de recherche, le bloquage de Google analytics par Safari, ainsi que des évolutions améliorant toujours un peu l’expérience utilisateur.
Nouvelle mise à jour Noyau Google de mai
Pour rappel, les « Google Core Updates » impactent la façon dont Google classifie les pages référencées au sein de son moteur de recherche.
Il s’agit de la 2ème mise à jour du noyau pour 2020.
Le 4 mai google a lancé sa nouvelle mise à jour du noyau de l’algorithme (qui a mis 2 semaines à se déployer complètement).
Cette mise à jour a montrée des hausses et des baisses significatives sur plusieurs sites. Les sites les plus touchés étant ceux concernant les jeux et le gaming, puis certains sites dans les thématiques actualités/business/arts/divertissement et communautés en ligne ont été également fortement impactés (en positif ou en négatif)
Le graphique ci dessous vous montre l’impact de la mise à jour de mai par rapport à celle de janvier 2020:
Aussi, tout ce qui a touché aux personnalités publiques (entités nommés) à subi une forte chute, Google préférant mettre avant des actualités récentes plutôt que des biographies.
Sistrix nous indique les sites français ressortant « gagnants »de cette mise à jour :
Courant 2019, Google a eu de nombreux problèmes d’indexation et il semble que cette année il continue dans sa lancée.
Google a indiqué qu’il rencontrait début juin des « problèmes d’indexation », pouvant entraîner des « résultats de recherche obsolètes dans certains cas », sans donner plus de détails.
Ce bug a surtout touché les sites de presse et d’édition, autant de grands sites comme le « New York Times » ou le « Wall Street Journal » que des blogs ou des sites de petits éditeurs. Ces sites n’apparaissaient plus dans les résultats des serps !
A noter aussi que les résultats provenant de LinkedIn avaient également disparu.
Des mini bugs avaient déjà été repérés en avril – mai. Un correctif a été mis en place, et les problèmes ont été résolus rapidement.
Google Analytics et Double Click bientôt limités par Apple sur son navigateur « Safari »
Lors de sa conférence WWDC 2020, Apple a lancé de nombreuses évolutions pour les développeurs, et a notamment annoncé souhaiter augmenter la rapidité de son navigateur safari en bloquant certains trackers qui récoltent les données utilisateurs.
Durant la présentation, nous retrouvons Google « Analytics » dans la liste des trackers qu’ils souhaitent bloquer, mais également DoubleClick pour Google (solution publicitaire). Il s’avère en réalité que safari continuera de collecter les données classiques de Google Analytics tant qu’il est utilisé en tant que cookie first-party, c’est à dire en tant que cookie interne au site. La mauvaise nouvelle est pour ceux (dont certains de mes clients 🙁 ) qui utilisent le tracking cross domain. Dans ce cas, les données seront bloquées par safari.
Par contre Amazon, et Optimizely par exemple, auront leurs trackers totalement bloqués.
A noter que :
18% des recherches web se font sur safari
et 24% des recherches mobiles sont sur Safari.
La limitation des trackers Google Analytics pourrait intervenir dès la rentrée, période à laquelle Apple à l’habitude de déployer les nouveautés annoncées lors de sa conférence annuelle WWDC.
Concernant les nouvelles ouvertures de compte, par défaut, google ne conservera qu’un historique d’activité limité à 18 mois pour les activités web et les applications.
Cette durée permettre à google de mieux prédire les événements par rapport à ceux de l’année précédente pour améliorer l’expérience utilisateur.
L’historique des positions sera automatiquement désactivé, et un historique 36 mois sera gardé pour l’historique de youtube.
Mises à jour améliorant l’Expérience Utilisateur UX (Chrome, vidéos etc)
Août 2020 : Google va bloquer les publicités trop lourdes
Depuis 2018, un filtre existe sur Chrome pour bloquer certains formats de publicités trop intrusives.
Google a développé l’idée et va mettre en place une mise à jour pour bloquer les publicités trop lourdes.
Qu’est ce que Google considère comme « publicité trop lourde » ? :
Une publicité trop lourde pour Google a pour seuil 4 Mb de bande passante
et/ou
15 secondes d’usage CPU en 30 secondes ou 60 secondes d’usage CPU en tout.
Au final, cette mesure ne concernera qu’environ 0,3% des encarts publicitaires, mais qui représente quand même : 27% de bande passante en moins consommée par les publicités et 28% de l’énergie puisée par les microprocesseurs.
Si la publicité dépasse ces seuils, elle sera automatiquement bloquée par Google Chrome. Cette fonctionnalité devra améliorer fortement l’expérience utilisateur.
Google va bloquer 3 formats spécifiques de publicité
• Les annonces/groupes d’annonces, en bande annonce de vidéos de plus de 31 secondes et que l’on ne peut désactiver avant les 5 secondes d’intro.
• Les annonces qui apparaissent en plein milieu du visionnage de vidéos par l’utilisateur.
• Les annonces (photos/textes) qui couvrent plus de 20% du contenu de la vidéo.
Google interdira ces publicités à partir du 05/08/2020 pour répondre nouvelles directives de la « Coalition for Better Ads ».
Youtube, Facebook, et Microsoft faisant partie de cette coalition devront également aussi se mettre aux normes.
Mise à jour Google de sa politique pour lutter contre la contrefaçon
Pour rappel, en 2012 Google a lancé la mise à jour « pirate update » qui s’attaquait aux sites qui violaient les droits d’auteurs et les empêchaient de bien se classer dans les positions de serp.
Avec la nouvelle update de lutte contre la contrefaçons que Google va mettre en place , vous pouvez dénoncer les sites qui proposent de la marchandise contrefaite, (après analyse d’un expert Google).
Qu’est ce qui est considéré comme contrefait par Google ?
Tout article comportant une marque ou un logo identique (ou presque) à ceux d’un autre produit
Imitant les caractéristiques d’une marque afin d’être volontairement confondus avec le produit authentique du propriétaire de celle-ci.
Cela s’appliquera qu’aux contrefaçons d’article et non de marque.
Googlescope : nouvelle extension qui permet de facilement réaliser des recherches avancées sur Google
Googlescope est apparu début juin et est déjà utilisée par plus de 4 000 personnes aujourd’hui.
elle permet de faire des recherches avancées sur Chrome :
par pays,
par langue
par période
par correspondance de mots
en fonction de la section où le terme apparait sur un site (titre, contenu, url, lien)
avec des mots non inclus dans les résultats
par domaine
par date de dernière mise à jour
par type de fichier
vous pouvez combiner jusqu’à 9 critères pour faire des recherches complexes.
J’en profite aussi pour rappeler une extension que j’ai découvert il y a peu « keyword surfer » qui apporte pleins d’informations sur les mots clés recherchés sur Google (volume de recherche, mots clés associés, % de similarité, etc..)
https://www.creapulse.fr/wp-content/uploads/2020/07/veille-SEO-juillet-2020.jpg321794Anna esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngAnna esteves2020-07-07 16:57:292020-07-07 16:58:12Veille SEO : Core update de mai, pb d’indexation, bloquage d’analytics,…
Créer un tableau de bord SEO devrait être l’étape essentielle avant de commencer un audit SEO ou maintenir un suivi pour tout référenceur. Un bon tableau de bord permet d’avoir une vue synthétique des principaux axes d’améliorations du site dans le but d’apporter des optimisations concrètes. Les logs enregistrés par le site permettent de récupérer des informations impossibles à récupérer autrement, notamment le passage de Googlebot. Je vais essayer de vous montrer ici comment récupérer certains indicateurs, grace aux logs, indispensables pour réaliser un vrai audit SEO.
Exemple d’un tableau de bord SEO
Voici une vidéo qui explique et illustre rapidement ce qu’on peut obtenir dans un tableau de bord SEO grâce aux logs. Et pour plus de détails, les formules pour calculer certains KPI avec les logs par exemple, il faut lire l’article.
Pourquoi analyser les logs pour optimiser le SEO d’un site ?
Analyser les logs d’un site est le seul moyen pour savoir ce que voit Google sur votre site. Sauf pour les petits sites de quelques dizaines de pages, Google ne connait jamais l’intégralité des pages d’un site. Et si il connait certaines des pages d’un site, il ne va pas crawler toutes les pages à la même fréquence, et ca ne signifiera pas pour autant qu’elles seront indéxées ou même bien positionnées. On verra plus tard que la fréquence de passage de googlebot sur une page influe sur ses chances de faire des visites ou pas.
Donc avec les logs, on peut savoir:
Quelles pages Google connait
Combien de fois Googlebot crawle une page sur une période donnée
Combien de visites une page fait
La fenêtre de crawl . : La fréquence de crawl Googlebot nécéssaire pour qu’une page ait des chances de faire des visites
Les mots clés tapés sur Google lors de la visite (le peu qui reste car beaucoup de « not provided »)
Mais là où ça devient vraiment intéréssant, c’est lorsqu’on croise les données des logs avec les données d’un outil de crawl comme botify, oncrawl ou encore screaming frog. Car avec ces outils on va récupérer les urls qui existent sur le site et on va donc pouvoir comparer avec les urls que connait Google.
Avec les données de logs croisées avec les données d’un crawler, on peut savoir:
Quelles sont les pages orphelines : les pages que connait Google mais inaccessibles sur le site
Les pages non crawlées par Google: les pages qui existent sur le site mais Google ne voit pas
Quel est le taux de crawl : Le ratio entre les pages accessibles depuis la structure du site et ce que Google connait
Le taux de pages actives : Le ratio entre les pages accessibles depuis la structure du site et celles qui font des visites
Vous me direz, des outils comme botify et oncrawl le font déja. Oui, mais il n’y a aucun moyen avec ces outils d’avoir facilement une vue synthétique des différents KPI par catégories du site. Par exemple, impossible de voir quel est la part de crawl de Google que représente une catégorie au sein d’un site. Ou encore plus basique, la part des visites d’une catégorie sur tout le site. Des informations pourtant essentielles pour voir d’un coup d’oeil ce qui ne va pas dans le référencement naturel du site et ce qu’il faut optimiser en priorité.
Mais on va aller encore plus loin, sortir des KPI qui n’existent tout simplement pas sur les outils cités et pourtant super intéréssants. De quoi peut-être leur donner des idées si ils lisent cet article.
Et en attendant, il y a une phase essentielle qui consiste à collecter les données, les croiser, les catégoriser afin d’établir un tableau de bord SEO grace aux logs, commençons:
Etape 1: Croiser les urls des logs et les urls du crawl
schéma de croisement de données entre données d’un crawler et données issuees des logs
Je considère que vous avez déja votre liste d’urls extraites d’un crawler (ex: sreaming frog) et votre liste d’urls issues des logs avec le crawl de Googlebot mobile et les visites depuis le moteur de recherche Google. Vous pouvez extraire les logs avec un outil comme apache log viewer ou en ligne de commande. A noter que j’ai précisé Googlebot mobile, et bien oui, depuis l’index mobile first, c’est le googlebot mobile qui devient majoritaire, ceci dit on peut très bien mixer les deux Googlebot dans les analyses de logs. Je considère aussi que vous maîtrisez les fondamentaux d’excel, rien de compliqué ceci dit.
Sur excel, vous collez votre liste d’urls issues du crawler dans une feuille nommé par exemple « urls structure ». Vous collez la liste des urls des logs dans une feuille nommé « urls logs ». Jusque là, tout va bien. Pour croiser les urls du crawler et les urls des logs, on va pas se contenter d’additionner les urls des 2 feuilles, ce serait trop facile et surtout ce serait faux. Avant de continuer il faut comprendre qu’on a plusieurs types d’urls:
Les urls dans la structure ET aussi dans les logs
Les urls dans la structure et PAS dans les logs
Les urls dans les logs et PAS dans la structure, ce qu’on appelle les pages orphelines (nomatch)
On va donc isoler ces différents groupes d’urls et ensuite on pourra les additionner afin d’avoir une liste complète des urls qui croisent les données de crawl du crawler et les données des logs.
Etape 1.1: Extraire les urls dans la structure ET aussi dans les logs
C’est simple, on prend notre feuille « urls structure » et on fait un rechercheV avec la feuille « urls logs » pour récupérer le volume de crawl et les visites pour chaque url présente dans la structure et que Google connait.
Etape 1.2 : Extraire les urls dans la structure et PAS dans les logs
Il s’agit des urls non connues de Google. On reste sur notre feuille « urls structure », on rajoute 2 colonnes: « structure » et »nomatch ». Pour les urls qui ont matché dans l’étape 2.1, on met 1 dans la colonne « structure ». Pour les urls qui n’ont pas matché, on met « 0 » dans la colonne nomatch. On peut en profiter pour copier coller les urls avec structure=1 / nomatch= 0 et les urls avec un crawl =0 dans une autre feuille qu’on appellera « urls non crawlées par Google ». C’était le principal intérêt de cette étape en réalité, pas vraiment essentiel pour croiser crawl et logs mais importante pour la suite.
Etape 1.3: Extraire les urls dans les logs et PAS dans la structure (nomatch)
Cette fois, on part de la feuille « urls logs » et on fait un rechercheV sur la feuille urls structure ». On rajoute une colonne qu’on appellera « nomatch ». Les urls qui matchent, on met 0 dans la colonne « nomatch » et les urls qui matchent pas, on met 1 dans la colonne « no match ». On filtre la feuille « urls logs » et la colonne « nomatch » égale à 1 et on colle les données dans une feuille qu’on apellera « nomatch ».
Etape 1.4: On mélange tout ça
Dans une feuille qu’on nommera « all urls », on ajoute les urls de la feuille « structure » et les urls de la feuille « nomatch ». On a donc bien nos urls de la structure vus par Google, non vues par Google et vues par Google mais pas dans la structure. Et avec les urls, on a biensur toutes nos données du crawler, ainsi que le volume de crawl et les visites issues des logs et une distinction pour savoir si l’url est dans la structure ou en nomatch (hors structure).
Etape 2: Catégoriser les urls
Schéma de catégorisation d’urls
Pour l’instant, on s’est juste contenter de dresser une liste d’urls avec tout un tas d’informations. Mais pour créer notre tableau de bord SEO, il faut d’abord catégoriser le site. On va segmenter le site en différentes catégories: page d’accueil, pages produits, pages de menu, paginations, articles de blog, etc… Pourquoi ? Parce que sans ça, on se contentera d’avoir des données macro au niveau du site en entier uniquement ou d’une seule url, ce qui a très peu d’intérêt. C’est d’ailleurs le cas aussi pour les crawlers que j’ai cité, sans une bonne catégorisation, difficile d’en tirer quoi que ce soit d’opérationnel.
Prenons un cas concret, on a une catégorie de pages qui est fortement crawlée par Google mais dont le trafic est peu qualifié et une autre catégorie qui est peu crawlée mais dont le trafic est très qualifié. Une idée de maillage interne est d’utiliser le catégorie très crawlée pour faire des liens vers la catégorie peu crawlée et qu’on veux pousser davantage. Sans catégorisation, impossible de faire ce genre d’analyses.
Je ne vais pas ici expliquer comment catégoriser les urls d’un site, personnellement j’utilise des regex, un language puissant permettant de représenter des modèles de chaînes de caractère et qui est aussi utilisé en programmation. On peut aussi essayer de catégoriser des urls avec les filtres avancés d’excel, avec les quelques limites que ça implique mais qui peut parfois suffire pour des sites peu complexes.
A noter que si vous utilisez des outils botify ou oncrawl, les possibilités de filtrages sont un peu plus avancées que sur excel pour créer ses catégories, même si la solution des regex reste la meilleure pour avoir une catégorisation stricte et sans erreurs.
Etape 3: Extraire les KPI de base: Crawl, visites, pages uniques crawlées,..
Une fois qu’on a notre liste d’urls croisées avec les logs et catégorisée, on a fait le plus dur, ce qui n’était pas non plus insurmontable. Il s’agit maintenant de faire un tableau croisé dynamique sur excel avec les catégories en tant que ligne et les différents kpi en tant que valeur. Pour commencer, on va récupérer pour chaque catégorie les données de base provenant des logs:
Volume de crawl: somme du crawl
Volume de visites: somme des visites
Pages uniques uniques crawlées: Nombre d’urls crawlées
Pages actives: Nombre d’urls visitées
Si j’ai précisé à chaque « somme » ou « nombre » , c’est pas pour rien, car dans votre tableau croisé dynamique, il faut changer le paramètre de champ de valeur en conséquence. Par défaut, le paramètre de champ de valeur est « somme », il faudra donc bien penser à le changer en « nombre » pour les pages uniques crawlées et les pages actives.
Etape 4: Distinguer ce qui relève de la structure ou des pages orphelines
Pages orphelines (ou nomatch) = Pages vues uniquement par Google
On reprend les kpi précédents: volume de crawl, de visites, pages uniques crawlées et pages actives mais cette fois on distingue ce qui est dans la structure ou en pages orphelines (nomatch). Même principe donc mais utilisant des filtres vu qu’on a pris le soin d’ajouter une colonne structure et une colonne nomatch. On récupère donc ceci:
Je vous garantis que là déja, vous avez des informations que vous n’aurez jamais avec les outils actuels du marché. Grace à ces données, vous pouvez par exemple savoir quelle est la part du crawl de google sur les pages orphelines par rapport aux pages dans la structure. Si cette part est importante c’est mauvais pour le site mais c’est une bonne piste d’optimisation pour votre audit SEO. On verra par la suite que le taux de pages actives des pages orphelines est toujours inférieur au taux de pages actives des urls dans la structure, d’où l’intérêt de ces indicateurs.
L’analyse des pages orphelines est essentielle dans le cadre d’un audit de site e-commerce par exemple. Les sites e-commerce ont tous, en fonction de la rotation des produits, des problèmes d’expiration de produits, de produits plus en stock ou plus disponible. Il est important de bien maitriser le crawl de Google sur des produits expirées qui sortent donc de la structure et qui deviennent par conséquent des pages orphelines.
Etape 5: Analyser l’efficacité des pages: Visites / crawl
Exemple client montrant les catégories de pages les plus efficaces selon le ratio visites / crawl
Là aussi, c’est un indicateur que je n’ai jamais vu sur les outils du marché, même chez ceux qui croisent crawl + logs. C’est pourtant un KPI essentiel pour tout bon tableau de bord SEO et qu’on peut facilement calculer. L’indicateur visites / crawl consiste simplement à diviser les visites depuis le moteur de recherche par le crawl de Googlebot.
Par exemple:
Si Google explore souvent une page ou une catégorie de pages et qu’elle génère peu de visites, je considère qu’elle est peu efficace.
A l’inverse, Si Google crawle peu souvent une catégorie de pages et qu’elle génère beaucoup de visites, c’est une catégorie de pages efficaces.
Cette notion d’efficacité est liée au budget de crawl . Google a un temps limité lorsqu’il crawle un site, alors l’intérêt de l’indicateur Visites / crawl est multiple:
Orienter le crawl de Googlebot vers les pages efficaces, peu de crawlées par Google et qui font beaucoup de visites
Limiter ou supprimer le crawl de Googlebot vers les pages peu efficaces, très crawlées par Google et avec peu de visites
Se servir des pages efficaces pour pousser des pages stratégiques
Dans la pratique, je devrais rajouter un autre point car parfois des pages peu efficaces ont une légitimité à l’être davantage, car peu de contenu, peu de maillage, ou autres. C’est là que l’oeil de l’expert doit correctement analyser et interpréter les données.
Pour en revenir à notre tableau de bord SEO, il s’agit simplement de rajouter un colonne qui divise les visites sur le crawl.
Formule de l’indicateur Visites / crawl = Volume de visites / Volume de crawl Google
Plus la valeur est importante et plus notre catégorie de pages est efficace.
Et pour aller plus loin, on peut même ajouter l’indictateur visites / crawl pour les urls dans la structure et en nomatch (hors structure). Ca permettra de voir que l’efficacité des urls hors structure est moindre que celles dans la structure.
Etape 6: Calculer le taux de crawl et le taux de pages actives
Le taux de crawl c’est le ratio entre les pages vues par un crawler et les pages vues par Google. Si un site a un taux de crawl de 60%, ca signifie que Google ne voit que 60% des pages accessibles en ligne. La aussi, c’est une information qu’il faut connaitre catégorie par catégorie et non au niveau du site en entier comme le font la plupart des outils. L’objectif est d’améliorer le taux de crawl des pages génératrices de trafic et qui en ont le plus besoin. Plus Google connait de pages et plus il y aura de pages potentiellement indéxées et capables de faire des visites.
La formule du taux de crawl = urls uniques crawlées par Google dans la structure / urls dans la structure
Le taux de pages actives, c’est le ratio entre les pages qui font des visites et les pages qui existent sur le site.
La formule du taux de pages actives: Pages actives / urls connues (urls connues via le crawler et via les logs)
L’objectif sera de concentrer les efforts et de prioriser les optimisations sur les pages qui ont à la fois un taux de pages actives faible, un grand volume de pages et une bonne efficacité visites / crawl.
Vu qu ‘on distingue bien les urls de la structure et les nomatch, on peut aussi calculer:
un taux de crawl structure
un taux de crawl nomatch
un taux de pages actives structure
un taux de pages actives nomatch
Ce qui permettra notamment de mettre en évidence la nécéssité ou pas de remettre dans la structure certaines pages anciennement en nomatch. Encore une donnée que les crawlers du marché nous donnent pas.
Etape 7: Calculer le Pagerank interne des pages crawlées par Googlebot
Visualisation du pagerank interne sous forme de secteurs et sous gephi
Vous avez surement déja entendu du pagerank interne, c’est un score qui mesure le jus envoyé aux pages selon la formule du pagerank historique de Google en tenant compte uniquement des pages internes au site. En gros, cette donnée dépend fortement du nombre de liens entrants et sortants sur chaque url, et de la profondeur des pages. Même si il y a plusieurs types de pagerank et même si ce score se base uniquement sur les pages internes au site (et non le web entier, impossible à calculer) c’est une donnée intéréssante car ça montre le poids donné par la structure à chaque catégorie du site.
Certains crawlers donnent des noms différents au pagerank interne, screaming frog appelle ça le linkscore, oncrawl appelle ça l’Inrank, et Botify appele ça… le pagerank interne, normal on vient de la même « école » les fondateurs et votre serviteur. Mais les scores qui se basent sur une échelle de 1 à 10, comme c’est le cas pour le linkscore de screaming frog et le inrank de oncrawl sont très peu exploitables, car c’est une donnée trop grossière pour avoir un calcul précis du pagerank interne par catégories. Botify, en revanche le calcule correctement via ce qu’ils nomment plus exactement le « pagerank interne brut ».
On le calcule comment ce pagerank interne si on a pas botify ? D’autres outils le font assez bien comme netpeak spider et pour les utilisateurs de screaming frog, une solution consiste à passer par un script R (voir le tuto ici).
Mais attendez là, j’ai parlé du PageRank Interne (PRi), pas du PageRank Interne des pages Crawlées par Googlebot (PRic) ! En fait les scores de PRi calculés par tous les crawlers cités, botify compris, prennent en compte toutes les pages de la structure, même celles qui ne sont pas vues par Googlebot. Le PRi est donc un score de pagerank interne absolu si Google parvenait à crawler l’ensemble des pages du site.
Mais on sait très bien que ce n’est jamais le cas, sauf pour les petits sites. Si Google connait 50% du site, il faudrait calculer le pagerank interne uniquement sur ce que connait Google non ? et pas sur tout le site ! En fait les 2 scores sont intéressants, le PR i et le PR ic, mais ce dernier est plus « vrai »sur l’état du pagerank interne à un instant T vu qu’on se base uniquement sur ce que connait Google sur une période donnée. Et pour calculer ce PRic, il est donc nécessaire d’analyser les logs.
Le fait est qu’aucun crawler du marché ne calcule ce PRic qui est pourtant plus représentif du « vrai » pagerank interne que le PRi. Vu que dans notre fichier excel, on connait les urls dans la structure et crawlées par Googlebot, on peut les filtrer et calculer le pagerank interne uniquement sur ces urls là.
Dans tous les cas, que ce soit le Pri ou le PRic, on reste sur des valeurs approximatives et relatives, il n’y a pas donc pas vraiment de vrai pagerank interne au sens stricte. L’objectif de ces indicateurs est plus de se faire une idée sur la répartition du maillage interne et voir comment mieux distribuer le jus du site vers les pages génératrices de trafic et de conversions.
Etape 8: Mesurer la Fréquence de crawl
La fréquence de crawl, c’est le nombre de fois que Googlebot est passé sur une page. Pour calculer la fréquence de crawl la formule est: Volume de crawl / pages uniques crawlées. La aussi c’est un indicateur qui est rare de retrouver. De plus, si on filtre la fréquence de crawl avec uniquement les urls qui font des visites, on peut savoir combien de fois en moyenne Google doit passer sur une page pour qu’elle ait des chances de faire des visites. Valeur qu’on aura catégorie par catégorie, car la fréquence de crawl est différente d’une catégorie à l’autre.
Inutile d’avoir cette donnée au niveau du site en entier, car certaines pages comme la page d’accueil notamment, ont de très grosses fréquences de crawl, ce qui augmente la moyenne générale du site.
Etape 9: Afficher les ratios des kpi par catégories par rapport à tout le site
L’idée est d’afficher clairement sur le tableau de bord SEO quel est la part de crawl d’une catégorie par rapport à tout le site, sa part de visites, sa part de pagerank interne, sa part d’urls connues, sa part de nomatch, etc…
Ces information mises côté à côté dans un tableau de bord est certainement ce qu’il y a de plus intéressant car en un coup d’oeil, on peut voir ce qui ne va pas sur un site et ce qu’il faut optimiser.
Par exemple, si voit qu’une catégorie accapare 50% du pagerank interne pour seulement 10% des visites., on voit tout de suite que ça ne va pas.
Etape 10: Intégrer d’autres sources de données que les logs et le crawl
En plus des logs, on peut ajouter au tableau de bord SEO des données provenant du crawler biensur mais de l’outil de web analytics (ex: Google analytics), de la console de recherche Google, d’outils de suivi de positions (ex: semrush), d’outils de backlinks (ex: majestic SEO). Voici quelques exemples de KPI à ajouter au tableau de bord:
Les possibilités de croisement de données sont nombreuses en fonction du besoin et des problématiques rencontrées. Mais une fois qu’on a pris le temps de bâtir un tableau de bord SEO avec ces informations déja, on peut vraiment prendre des décisions basées sur des données objectives et scientifiques. C’est d’ailleurs une devise que je met dans ma signature mail:
Le SEO n’est pas un art mais une science
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2020/05/VIDEO-tableau-de-bord-seo-via-analyse-de-logs.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2020-05-06 10:59:112020-07-22 11:26:42[video] Comment créer un tableau de bord SEO via les logs ?
Voici une sélection des nouveautés Google et SEO depuis le début du confinement, utile notamment pour ceux qui ont plus suivi la propagation du virus que les news côté Google et SEO. Ce n’est pas exhaustif, il y a d’autres sites qui le font très bien comme abondance, webrankinfo, arobasenet, etc.. Il s’agit d’une petite sélection de ce qui m’a paru intéréssant à relever. Mais si vous pensez que d’autres news devraient y figurer, n’hésitez pas à commenter.
De nouvelles icônes informatives pour Google Images font leur apparition pour indiquer s’il s’agit par exemple d’une vidéo, d’une publicité, des produits à vendre etc. Une version beta sera bientôt disponible afin de fournir un lien vers la licence dans Image Viewer, pour que les utilisateurs aient plus d’information sur la façon d’utiliser l’image : il sera notifié sous la photo si celle-ci à une licence ou non, et vous permettra de savoir quelles sont les conditions d’utilisation (photos libres de droit ou pas etc).
Google précise que si vous passez la souris sur l’icone, plus de détails concernant la longueur de vidéo par exemple seront précisés.
Le badge sera affiché au-dessous des images :
Google va donner son approbation avant la publication de photos sur My Business et Maps
Google a changé sa politique d’utilisation des photos sur votre Google My Business ou Maps, il faudra d’abord avoir l’approbation de Google avant de pouvoir mettre des photos.
Ce processus sera adapté pour les autres utilisateurs, le propriétaire aura un meilleur contrôle de ce qui se dit sur son entreprise.
il n’as pas été précisé si le contrôle sera fait par des humains ou des bots.
Nouvelles fonctionnalités qui permettent d’afficher sa bio : « Profile Card »
Si vous googlez le nom d’une personnalité, une carte de profil ou courte bio s’affichera dans la section supérieure de la page de résultats.
Google va lancer une fonctionnalité ou vous pourrez créer votre propre courte bio avec des liens vers vos coordonnées postales et téléphoniques, adresses de réseaux sociaux, des détails sur vos études, votre métier et le lien de votre site web (comme un mini profil linkedin). Ces cartes pourraient à terme remplacer l’ancien Google +.
Cette fonctionnalité est disponible sur mobile, il faut rechercher votre nom, faire un « add me to google » ou « edit my search result » et remplir vos informations.
Pour l’instant, ces cartes ne sont disponibles et en version béta qu’en Inde , en langue anglaise.
Si votre page génère plus de clics que la moyenne à partir de ses résultats organiques, la search console de google vous enverra un mail pour vous en informer.
La période de mesure est de 3 jours, ce qui vous permets d’être réactifs de d’agir en conséquence.
Google vous donnera également plus d’informations comme :
• le nombre moyen de clics par jour sur la page dite au cours des 3 derniers jours
• le pourcentage d’augmentation de clics par rapport à la moyenne
• et une série d’explications sur ce pic de trafic par rapport à vos dernières modifications.
John Mueller de Google a confirmé l’information.
https://www.creapulse.fr/wp-content/uploads/2020/03/veille-SEO-debut-confinement.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2020-05-05 11:26:242020-05-05 11:26:24Nouveautés Google et SEO depuis le confinement
La date de publication d’une page et donc son ancienneté a un impact sur le référencement. les requêtes chaudes ont tendance à se positionner sur des pages fraiches tandis que les requêtes plus longue traîne peuvent se positionner sur des pages plus anciennes. Mais comment le mesurer clairement sur son propre site ? C’est ce que je vais essayer de faire en vous montrant comment configurer Google tag manager et Google analytics afin de mesurer les visites ou autres KPI en fonction de l’age des pages.
Pourquoi mesurer l’ancienneté des pages ?
L’idée est de calculer le nombre de jours entre la visite d’un internaute et la date de publication de la page visitée. On pourra notamment voir la répartition des visites du site en fonction de leur ancienneté. On pourra aussi voir si des articles plus anciens ont un comportement utilisateur différent d’un article plus frais: taux de rebond, temps passé par page, etc..
Ce genre d’analyses est utile pour tout type de site, même e-commerce mais il l’est particulièrement pour un site média ou un site d’actualités. C’est d’ailleurs sur un site d’actualités que je vais vous montrer un cas pratique.
Sur un de mes clients, je me suis rendu compte que les articles entre 2 et 3 mois d’ancienneté étaient particulièrement efficaces en terme de trafic alors qu’ils n’étaient pas du tout mis en avant dans la structure du site. Cet enseignement a permis d’agir opérationnellement par la création de tops d’articles qui avaient entre 2 et 3 mois d’ancienneté. C’est une des optimisations parmi d’autres qu’il est possible de faire grâce à ce type de données.
1/ Extraire la date de publication de la page
L’équation est la suivante:
Age des pages = date de la visite – date de publication
On va donc déjà commencer par extraire la date de publication. L’extraction de la date de publication dépend bien-sur de la manière dont elle est indiquée sur la page: En front, uniquement dans le code source ? Dans le cas que je présente, je récupère la date qui est indiquée en JSON dans le code source, ce qui est souvent le cas lorsque les données structurées sont bien présentes.
On va créer et stocker la date de publication dans une variable javascript personnalisée sur Google Tag Manager. Vous allez dans Variables > Nouvelle et pour le type de variable, vous choisissez « javascript personnalisée »:
Reste plus qu’à insérer la fonction qui permettra d’aller chercher la date de publication
Solution 1: on récupère directement la date de publication dans le JSON
La date de publication se trouve dans la balise « datePublished »
Solution 2 (en 2 temps): on récupérer tout le contenu json dans une variable puis on va chercher la date dans cette variable
Cette solution permet de simplifier le code des fonctions surtout si on veux également récupérer d’autres informations contenues également dans le JSON. On peut penser à la date de mise à jour par exemple, à l’auteur et à d’autres informations qui peuvent être intéressantes à analyser. C’est la solution que je préfère même si elle consiste à créer une étape supplémentaire puisqu’on va utiliser 2 variables au lieu d’une.
Une variable pour stocker le contenu entier du json et qu’on va appeler jsondata:
function() {
var json = document.querySelector(‘script[type= »application/ld+json »]’)
var obj = JSON.parse(json?json.innerHTML:'{}’);
return obj;
}
Et une autre variable qu’on va appeler simplement « date de publication » qui va aller chercher l’information dans jsondata:
function() {
var obj = {{jsondata}};
return obj.datePublished;
}
C’est beaucoup plus propre, et plus performant surtout si on va chercher plusieurs variables.
2/ Créer la fonction qui va calculer l’age des pages
J’en reviens à mon équation de départ:
Age des pages = date de la visite – date de publication
« date de publication », c’est bon, la variable est au chaud. Date de la visite, c’est la date du jour où la page a été visitée qui peut se traduite en javascript par Date.now().
Là où ça se complique c’est que la date de publication doit être au même format que la date de jour. On va pas faire une soustraction entre des patates et des haricots. On va utiliser le format timestamp, c’est à dire le format universel en informatique pour représenter la date et l’heure.
Voila ce que ça donne pour la variable qu’on va nommer AncienneteArticle :
function() {
var datePub = {{Date de publication}};
if(datePub!==undefined){
var timePub = (new Date(datePub)).getTime();
var timeVisite = Date.now();
var msDiff = Math.abs(timePub – timeVisite );
var daysDiff = Math.floor(msDiff/(1000 * 60 * 60 * 24));
return daysDiff;
}else{
return undefined ;
}
}
En détails ligne par ligne:
ligne 1: c’est l’ouverture de la fonction
Ligne 2: on stocke notre variable GTM dans une variable qu’on nome « datepub »
Ligne 3: On vérifie que la date de publication existe
Ligne 4: On convertit la date de publication au format timestamp
Ligne 5: On récupère la date du jour dans Timevisite
Ligne 6: On fait notre soustraction: [date de publication au format timestamp] – [la date du jour]
Ligne 7 : on transforme ce résultat en jours, afin d’avoir le nombre de jours entre la visite et la date de publication de l’article.
Créer la dimension personnalisée sur Google Tag Manager
là c’est la partie la plus simple qui consiste à créer une dimension personnalisée avec l’ancienneté des pages en jours. L’avantage est de pouvoir croiser facilement cette donnée sur Google analytics ou via son API (ce que je prèfère).
Rien de plus simple, sur Google Tag Manager cliquez sur votre balise analytics (ou la variable qui regroupe les paramètres de votre balise) >Plus de paramètres > Dimensions personnalisées.
Et vous rentrez une valeur d’index (ex:3) et la valeur de la dimension qui correspond à la variable javascript personnalisée qu’on a crée juste avant: {{AncienneteArticle}}
Vous pouvez créer jusqu’à 20 dimensions personnalisées sur Google analytics et même 200 sur un compte analytics 360.
Créer la dimension personnalisée sur Google Analytics
Cette fois ça se passe du côté de l’administration de Google Analytics. vous cliquez sur la roue dentée pour accéder à l’admin, dans la colonne propriété, vous allez dans définitions personnalisées > dimensions personnalisées et là vous créez simplement la dimension avec le nom que vous voulez mais avec la même valeur d’index que vous avez créez sur GTM.
Exploitation des données analytics
Bon voila, après on peut s’amuser à se faire des tableaux de bord sur Google analytics ou simplement choisir la dimension personnalisée « Ancienneté de l’article » en tant que dimension secondaire
On peut bien sur extraire les données sur excel et se faire ses propres graphes:
Et encore mieux c’est de se faire son propre tableau bord analytics personnalisée qui centralise vos données analytics essentielles mais aussi les indicateurs de vos autres canaux marketing: adwords, facebook ads, mailing, CRM, ereputation, veille d’actualités, etc… Pour en savoir plus sur notre tableau de bord digital 360 développé par Creapulse ou pour une démo, contactez -nous:
Cliquez pour en savoir plus ou pour une démo du tableau de bord digital
https://www.creapulse.fr/wp-content/uploads/2020/02/comment-mesurer-l-anciennete-des-pages-avec-gtm-et-google-anaytics.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2020-02-12 19:00:082020-07-22 11:46:16GTM: Mesurer les visites en fonction de l’age des pages
Google et ses mises à jour depuis le début de l’année 2020 :
Core update du 13 janvier 2020
Cette mise à jour fait suite à BERT, notamment pour la bonne compréhension du champ lexical et du contexte sémantique. Elle a eu un impact non néglogeable sur les pages de résultats de Google.
Comment tirer parti de BERT afin de bien optimiser son site
Cela fait déjà presque 2 mois que BERT a été déployée. Avec plus de recul, on en sait un peu plus sur cette grosse mise à jour algorithmique de Google qui touche 10% des requêtes.
Voici quelques points importants pour que votre site soit adapté à cette mise à jour :
Adaptez votre site à la recherche conversationnelle (questions/réponses etc)
Avoir une certaine cohérence entre vos paragraphes, une continuité logique
Ne pas abuser des listes à puces.
Être pertinent, clair et concis
Pour les listes à puce, vu que BERT se base sur l’intégralité de la phrase pour juger de la pertinence d’un document par rapport à une requête, il est logique qu’une liste à puce qui n’est pas construite comme une phrase classique de type sujet + verbe + complément, ne s’y prêt pas trop. Cela ne veux pas dire pour autant qu’il ne faut pas utiliser les listes à puces surtout si le reste du contenu est suffisamment riche. D’autant plus que les listes à puce sont très pratiques d’un point de vue UX pour leur lisibilité.
Google et sa mise à jour concernant les extraits enrichis (ou « featured snippets »)
Depuis le 22 janvier 2020 avec la mise à jour algorithmique Google sur les extraits enrichis, les pages de résultats Google avec featured snippets ne seront plus dupliquées en première page de résultats. Il était courant auparavant qu’un site en position 0 voit à nouveau sa page dans la liste de résultats en dessous. Ce n’est plus le cas, et ça touche 100% des résultats dans ce cas dans le monde.
Voici le tweet de Danny Sullivan, porte parole de Google, en réponse à une question de Pete Meyers:
If a web page listing is elevated into the featured snippet position, we no longer repeat the listing in the search results. This declutters the results & helps users locate relevant information more easily. Featured snippets count as one of the ten web page listings we show.
Datasecurity affirme que les pages avec featured snippets ont vu leur résultats organiques repoussés en page 2 dans 28% des cas, fait que David Sullivan n’a pas confirmé.
Google et la confidentialité
Chrome restreint le contenu mixte
Depuis chrome 80, Google marque comme non sécurisé les sites https qui chargent du contenu mixte. Le contenu mixte c’est le fait d’afficher à la fois des ressources en https et des ressources en http comme des javascripts, des images, etc.. C’est une situation plus courante qu’il n’y parait, il est pas rare de trouver des sites dans cette situation. La solution est simplement de faire en sorte que l’ensemble des ressources chargéees sur une page soient bien servies en https.
Restriction des Cookies sur le navigateur Chrome
Google continue à améliorer la confidentialité et la sécurité des données utilisateurs. Depuis Chrome 80, il rend plus difficile l’accès des données aux applications tierces, grâce à sa nouvelle initiative Open Source « Privacy sandbox ».
Les cookies tiers qui ne sont pas validées par samesite seront refusés et ceux qui ne sont pas validées par samesite doivent au moins petre en https.
Les cookies tiers seront amenés à disparaître d’ici 2 ans et Google continuera à prendre des mesures pour supprimer les cookies. Pour se passer des cookies, Google se penche déja sur des API qui permettront d’accéder à des données anonymisées et sur la personnalisation des publicités sans recours aux cookies.
Google Chrome marque les sites en non sécurisé en dessous de tls 1.2
À partir du 13 janvier 2020, Chrome marque les sites web comme non sécurisés s’ils utilisent des certificats dont la version TLS (Transport Layer Security, ce qui remplace le SSL) est inférieure à 1.2.
Pour votre site HTTPS, Il est conseillé d’utiliser la dernière version en date de TLS, la 1.3. Sur chrome 79, un message signale que la connexion du site n’est pas optimale. Mais avec Chrome 81 ce message d’avertissement se transformera en interdiction ! Vous pourrez toujours forcer la connexion pour avoir accès malgré l’avertissement mais le comportement utilisateur en sera fortement dégradé
Peut-on modifier la date de publication des articles de blogs par une date de modification sur Google?
Cette question pertinente, a été posée à John Mueller qui confirme qu’il ne vaut mieux pas toucher à la date de publication initiale, ce qui rendrait le site suspect:
If I saw that while browsing a site, I'd find that pretty misleading. Also, if I saw that while browsing, I'd wonder if I can really trust the other content on the site, if it even wants to trick me based on the date shown. That's not how you build trust 🙂
En cas de mise à jour pour un contenu très important, il convient de garder la date de publication initiale. Vous pouvez tout à fait mettre les 2 dates, date de publication et de mise à jour.
Nouvel outil search console : désindexation
Vous pourrez dorénavant :
Bloquer temporairement l’affichages de vos pages dans les résultats organiques,
Supprimer pendant 6 mois l’url, effacer la copie en cache et ainsi cacher l’url des résultats de recherches Google
Supprimer la version et l’extrait mis en cache jusqu’à sa nouvelle exploration
Vous pourrez également supprimer le contenu obsolète via l’option « Outdated Content » et également vérifier si votre contenu à été bloquée par « Safe Search ».
Google lance son concurrent à Pinterest : COLLECTIONS
« Collections » permettra de classer vos résultats de recherche dans des dossiers, tout comme Pinterest.
Vous pourrez également choisir si vous souhaitez que google vous propose des suggestions sur vos dossiers.
Inscription à la newsletter
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2020/02/mise-a-jour-google-2020.jpg321794Anna esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngAnna esteves2020-02-12 16:46:302020-02-13 10:42:59Mises à jour Google depuis début 2020: core update, BERT, chrome
Pas mal de nouveautés du côté du SEO et de Google ces dernières semaines avec au menu: le nouvel algorithme Google BERT fraîchement activé sur les requêtes en français, le november update pour les résultats locaux, les mises à jour de chrome, de la console de recherche, de nouveaux attributs de liens,… bref beaucoup de choses à savoir pour rester à jour sur les dernières nouveautés Google.
L’algorithme Google Bert
Ca y est, il vient d’être lancé en France le 9 décembre 2019 comme le confirme ce tweet:
BERT is rolling out for: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azeri, Basque, Belarusian, Bulgarian, Catalan, Chinese (Simplified & Taiwan), Croatian, Czech, Danish, Dutch, English, Estonian, Farsi, Finnish, French, Galician, Georgian, German, Greek, Gujarati…. (MORE)
BERT est la plus grosse mise à jour google depuis 5 ans. C’est la suite de « Rankbrain » qui a pour but de mieux comprendre les intentions de recherche des utilisateurs. Ce nouvel algorithme permet à Google de s’adapter encore mieux qu’avant à la croissance des recherches vocales, en prenant en compte l’ensemble des mots qui contextualise la requête.
Google apporte aussi de nombreuses corrections dans les traductions automatiques, est plus pertinent sur les requêtes conversationnelles et sur les featured snippets: les réponses directes à des questions juste en dessous la barre de recherche Google.
November update: pour des résultats locaux plus précis
Mis en place depuis début novembre, Google explique qu’il s’agit d’une intelligence artificielle avec correspondance neuronale qui permet de mieux comprendre comment un mot est relié à un concept. Pour faire simple, les listing Google my business étaient affichés sur le terme exact de la marque. Avec cette mise à jour november update, les résultats locaux et les listes Google my business peuvent s’afficher sur des requêtes qui ne correspondent pas exactement à la marque mais dont l’intention de recherche correspond.
In early November, we began making use of neural matching as part of the process of generating local search results. Neural matching allows us to better understand how words are related to concepts, as explained more here: https://t.co/ShQm7g9CvN
Google Chrome veut obliger les sites à faire plus d’effort sur leur vitesse de chargement afin d’améliorer l’expérience utilisateur et spécialement sur mobile. La vitesse est d’ailleurs un critère de classement important dans l’index mobile first. La console de recherche, dont on verra un peu plus loin les dernières nouveautés, met aussi à l’honneur les rapports de vitesse. Le navigateur Google chrome n’échappe pas à la règle:
Afin que les utilisateurs puissent visualiser la vitesse d’un site, Google va instaurer des critères visuels :
Clic droit pour avoir une indication de la rapidité d’un site
Barre de progression de couleur différente : bleu pour les sites lents et verts pour les rapides
Un interstitiel avant la fin du chargement de la page qui indique si la page se charge en général rapidement ou pas
Dans le cas de deux pages qui ont un score de pertinence identique pour une même requête, c’est la plus rapide qui passera avant l’autre.
Google Chrome: pour un internet plus sécurisé
Avec Chrome 79, Google va bloquer le contenu dit « mixte », c’est à dire qui mélange des ressources HTTP et HTTPS. En effet, il arrive parfois que des urls en https affiche malgré tout à l’intérieur des images, des scripts ou autres ressources en HTTP. Chrome va désormais bloquer les pages qui mélangent les 2 protocoles pour des questions de sécurité. Cette mise à jour peut entraîner une baisse de trafic sur certains sites E-commerce notamment. Et si votre site n’est toujours pas passé en https, il est plus que temps de le faire.
La nouvelle Search Console de Google
L’ancienne console de recherche a été définitivement fermée pour faire place à de nouvelles fonctionnalités et une nouvelle interface.
Voici une vidéo sur la console de recherche de Google qui résume les principales nouveautés:
Nouveaux attributs de liens de Google
A partir de mars 2020, 2 nouveaux attributs vont être mis en place : rel = ”sponsored” et rel = ”ugc”:
rel = ”sponsored”: Pour les backlinks depuis des articles sponsorisés
rel = ”ugc”: Pour les backlinks depuis des pages ou des blocs de contenu correspondant à du User Generated Content, c’est à dire du contenu utilisateur comme les commentaires, des liens naturels, etc..
Mise à jour Google News
Plus de 60% des gens consomment des actualités dans 2 ou plusieurs langues. Avec cette mise à jour de l’application Google actualités, vous pourrez accéder et lire les actualités en plusieurs langues, pour avoir une vue globale de ce qui se passe dans vos pays de prédilections. Voici la source et c’est par ici pour plus de détails pour optimiser la visibilité d’un site sur Google actualités
Google ignorerait le liens en data-href
Bon, j’ai hésité à mettre cette info qui correspond à une réponse à une question que j’ai posé à John Muller, un fameux analyste chez Google. Je lui ai demandé si Google tenait compte des liens de type data-href, une méthode souvent utilisé en javascript, et si ces liens passaient du pagerank. Sa réponse est que « probablement » non. En gros, il en sait rien ! Comme souvent avec John Muller, il faut prendre avec des pincettes ce qu’il dit car rentrant souvent en contradiction avec des tests éprouvés et simplement avec la réalité.
Voici le tweet en question:
You can test this with the tools like the mobile friendly test or the inspect URL tool. Unless you're actively converting those to "a" elements with "href" URLs, then we're probably ignoring them.
La réalité c’est que mes tests et mon expérience tendent à prouver qu’à partir du moment où des urls sont en clair dans le code source, il y a de grandes chances qu’elles soient crawlées par Google. J’avais un doute sur le fait qu’elles passent ou pas du pagerank d’où ma question. Plus d’infos sur le javascript et le crawl de Google
Bon voila pour ce petit récap des dernières nouveautés Google, et si vous voulez rester au courant des dernières news SEO, n’hésitez pas à vous inscrire à la newsletter mensuelle avec des guides SEO et des news.
Inscription à la newsletter
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2019/12/nouveautes-google-2019-bert.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2019-12-11 12:58:352019-12-11 15:15:16Les nouveautés Google 2019: Google BERT, november update,…
Le référencement n’implique pas que la création de liens, le maillage interne et l’inclusion de mots clés pertinents dans le contenu. Bien qu’il s’agisse de stratégies importantes, les moteurs de recherche considèrent beaucoup plus que cela lors du classement des sites Web. Les éléments d’expérience utilisateur (UX) sont très importants pour le SEO .
https://www.creapulse.fr/wp-content/uploads/2019/06/UX-SEO.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2019-06-06 14:22:182022-10-10 23:41:03Experience Utilisateur, UX design et SEO
Toute la veille SEO du mois avec les nouveautés search console, les recommandations de Google sur les liens factices, de la recherche vocale, un résumé de la conférence de Rand Fishkin à Rennes, Comment Google optimise ses propres sites, … Découvrez tous les mois la veille et les guides SEO du mois par mail
Migration de la search console
Vous avez sans doute remarqué que la search console de Google propose déja depuis quelques mois une nouvelle version qui se veut plus précise, plus technique, plus complète et plus joli. Mis à part pour ce dernier point, nombre d’entre nous utilisaient encore l’ancienne version car il manque encore beaucoup de fonctionnalités sur cette nouvelle version.
Depuis le 13 décembre, comme l’a indiqué abondance , on a plus le choix pour les rapports suivants:
Rapport sur les cartes enrichies
Rapport sur AMP
Analyse de la recherche
Liens vers votre site
Liens internes
Actions manuelles
Ergonomie mobile
Etat de l’indexation
Et pour fin mars, Google a annoncé 7 nouvelles fonctions et 5 qui seront supprimés:
Erreurs d’exploration sera supprimé pour se retrouver dans couverture de l’index
Le rapport sitemaps sera supprimé pour se retrouver aussi dans couverture de l’index
L’outil « explorer comme Google » devient « inspection de l’url » dans le nouveau search console
la gestion des utilisateurs se retrouve dans les paramètres
Le rapport « améliorations html » qui montre par exemple des titles courts ou dupliqués sera supprimé, sans équivalent dans la nouvelle console de recherche
« Ressources bloquées » sera supprimé et accessible dans inspection de l’url
Données structurées sera supprimé et n’aura pas vraiment d’équivalent sauf pour certaines données structurées dans la partie améliorations
Pour avoir un tableau récapitulatif et à jour de tout ce qui change et comment c’est remplacé, je vous conseille cette doc de Google
Comment Google voit le seo
Google possède actuellement 7 000 sites web dans le monde avec 200 changements quotidiens sur ces sources d’informations. Fort de cette expérience, Google nous donne quelques leçons sur les bonnes recettes qui font le succès de leurs sites web. Je vous laisse juge, mais voici quelques unes de leurs conclusions:
Pour de grands résultats, commencez petit : Google my Business a vu son trafic multiplié par 2 en référencement naturel après l’intégration d’un certain nombre de fondamentaux SEO, dont l’ajout de balises « canonical » ou les balises Hreflang dans le fichier Sitemap XML.
Le monde du SEO évolue et il faut que votre site suive ces évolutions, lisez et documenter vous
Créer des sites uniques avec des contenus non-dupliqués, plutôt qu’une multitude de petits sites proposant quasiment toute la même information
Bon, quelques bons conseils basiques qui mangent pas de pain, mais c’est sans compter l’influence de leur notoriété et de l’autorité de leurs noms de domaines. Pour le sitemap xml, si vous avez lu mon article sur l’impact SEO des sitemaps XML, vous saurez qu’il faut prendre ça avec des pincettes.
Nouvelles recommandations sur les liens factices
C’est le tweet de Marie Haynes qui a alerté des changements dans les guidelines de Google sur les liens factices:
This is new. Looking at archive dot org, it looks like this was added sometime between August and October this year.
Google donne une définition du lien factice : Lien imposé dans le cadre de conditions d’utilisation, d’un contrat ou d’un arrangement similaire sans laisser à un propriétaire de contenu tiers la possibilité de recourir à l’attribut nofollow ou à une autre méthode de blocage de PageRank, s’il le souhaite.
Voici en résumé les recommandations de Google:
Les sites faisant des partenariats avec des influenceurs etc seront pénalisés
Si quelqu’un constate un site participant à des systèmes de liens visant à manipuler le PageRank, il faut informer Google. Ces informations peuvent améliorer les algorithmes de détection de ces liens factices.
Il faut toutefois prendre ces recommandations pour ce qu’elles sont, ce n’est pas appliqué actuellement dans les algorithmes de Google etcertaines de ces recommandations semblent difficilement appliquables.
Activité associée
Google est en train de déployer une nouvelle fonctionnalité de recherche intitulée « votre activité associée » qui permet de consulter d’anciens résultats de recherches précédentes. Google vous montrera des liens vers des pages que vous avez visitées dans l’historique de vos recherches. On pourra marquer une url pour la lire plus tard. Pour le SEO, cela peut entraîner des visites répétées sur votre site Web à partir de recherches Google antérieures.
Précisions sur la recherche vocale
On parle de plus en plus de recherche vocale et de SEO vocal , de nombreux articles ce mois de janvier dont voici un résumé:
D’après une étude : 25 % des produits les plus achetés via les assistants vocaux sont articles du quotidien.
21% sont des vêtements et des produits de divertissements.
72% des requêtes locales conduisent à une visite en magasin quelques heures après
Un article du JDN donne des conseils sur la manière d’organiser la donnée et de la rendre visible à destination des sources de connaissances des assistants vocaux. Evermaps, spécialisé dans les points de vente, conseillent de créer un référentiel de données régulièrement mis à jour avec nouveaux produits ou services, horaires exceptionnels, promotions et événements dans les points de vent. Cette base de donnée doit être mis à jour rapidement, car les utilisateurs et les algorithmes de google aiment le contenu frais. Cette base de données sert ensuite à alimenter, via API, des sources d’informations comme Google my business ou encore les informations des store locator, waze, yelp, tripadvisor, etc..
La fiche Google My Business dispose à présent d’une rubrique « Questions et Réponses », qui permettent aux gens de poser leurs questions. C’est exportable via API et c’est une bonne source d’informations pour enrichir votre page FAQ qui est un élément important pour bien ressortir dans les résultats vocaux.
Conférence de Ranch Fisking à rennes
Rand Fishkin, fondateur de Moz, une référence en SEO, a participé à une conférence à Rennes le 29 janvier et nous a livré quelques points de vues sur les tendances SEO 2019 et quelques conseils. Sur les tendances, il a parlé de la baisse du reach sur les réseaux sociaux, le reach étant la part des utilisateurs ayant vu une campagne publicitaire ou une publication sur une période donnée. Les réseaux sociaux diminuent volontairement le reach de vos posts et la probabilité que les visiteurs visitent votre site:
Instagram refuse le placement de liens dans les posts.
Les flux Twitter et LinkedIn mettent plutôt en avant les publications qui ne font pas sortir les utilisateurs de leur plateforme, sans liens donc.
Reddit suit le même schéma
Facebook met de moins en moins en avant les post avec liens
YouTube coupe ses descriptions avant que le lien ne soit visible
Le SEO reste le canal avec le meilleur retour sur investissement. Même si Google a aussi tendance à vouloir retenir de plus en plus ses visiteurs sur leur plateforme. C’est le cas notamment avec les featured snippets, les réponses directes qui apparaissent juste en dessous la requête et qui sont extraites directement du site de l’éditeur.
Rand Fishkin a aussi donné les conseils suivants:
Vu la faible valeur du reach, il vaux mieux avoir 10 emails qualifiés que 10 000 nouveaux followers
L’objectif de visibilité est de transformer la marque en demande
Le contenu doit être rédigé pour les clients potentiels et pour les influenceurs qu’ils suivent et qui font autorité dans votre domaine
Un bon contenu doit être riche et apporter une vraie valeur ajoutée pour se différencier sur le web.
La priorité en webmarketing est de travailler le trafic organique et la notoriété, et c’est seulement une fois que ces 2 axes sont renforcées qu’il faudrait se lancer dans le trafic payant.
La migration d’un ancien site vers un nouveau, suite à une refonte, est une étape délicate qui peut s’avérer désastreuse si elle n’est pas gérée correctement. La prise en compte du SEO, avant et après la migration, est essentielle pour ne pas vous retrouver avec une perte de trafic difficile à récupérer.
On va détailler l’ensemble des étapes à suivre, avant, pendant et après la migration afin de ne pas perdre votre référencement.
https://www.creapulse.fr/wp-content/uploads/2019/02/migration-seo-etapes-a-suivre.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2019-02-01 16:53:062020-07-22 11:27:29Migration SEO: toutes les étapes à suivre
Ce site utilise des cookies qui permettent de fournir des données anonymes pour mieux comprendre l'usage du site. En poursuivant votre navigation, vous acceptez l’utilisation des cookies.
Nous pouvons demander que des cookies soient configurés sur votre appareil. Nous utilisons des cookies pour savoir, via des données anonymes, comment vous visitez notre site, comment vous interagissez avec nous, pour enrichir votre expérience utilisateur, et pour personnaliser votre relation avec notre site Web.
Cliquez sur les différentes catégories pour en savoir plus. Vous pouvez également modifier certaines de vos préférences. Notez que le blocage de certains types de cookies peut affecter votre expérience sur notre site et les services que nous sommes en mesure d'offrir.
Les cookies essentiels au site
Ces cookies sont strictement nécessaires pour vous fournir des services disponibles sur notre site Web et pour utiliser certaines de ses fonctionnalités
Parce que ces cookies sont strictement nécessaires à la construction du site, vous ne pouvez pas les refuser sans impacter le fonctionnement de notre site. Vous pouvez les bloquer ou les supprimer en modifiant les paramètres de votre navigateur et en forçant le blocage de tous les cookies sur ce site.
Google Analytics Cookies
Ces cookies recueillent des informations anonymes qui sont utilisées soit sous forme agrégée pour nous aider à comprendre comment notre site Web est utilisé ou à quel point nos campagnes de marketing sont efficaces, ou pour nous aider à personnaliser notre site Web afin d'améliorer votre expérience.
Si vous ne voulez pas que nous suivions votre visite sur notre site, vous pouvez désactiver le suivi dans votre navigateur ici:
Autres services tiers
Nous utilisons également différents services externes tels que Google Webfonts, et des fournisseurs de vidéos externes. Étant donné que ces fournisseurs peuvent collecter des données personnelles comme votre adresse IP, nous vous permettons de les bloquer ici. Sachez que cela pourrait réduire considérablement la fonctionnalité et l'apparence de notre site. Les modifications prendront effet une fois que vous rechargez la page.
Paramètres Google Webfont:
Paramètres Youtube :
Politique de confidentialité des données
Vous pouvez en savoir plus sur nos paramètres de confidentialité sur notre page Politique de confidentialité..