Je ne vais pas ici faire une liste de définitions SEO exhaustives, ce serait trop long, sans doute ennuyeux pour les non débutants et il y a bien d’autres articles qui le font très bien. Je vais plutôt essayer de réaliser un lexique de termes utilisés dans des techniques SEO avancé d’analyse de crawl et de logs pour lesquels il est difficile de trouver des définitions. Il s’agit notamment de jargon de quelques experts utilisés surtout dans le cadre d’analyse de logs et d’analyse de crawl.
Le crawl depuis un moteur de recherche est l’étape n°1 (ou presque) pour amener du trafic organique: pas de crawl > pas d’indexation > pas de visites. Son optimisation représente un gros levier de croissance notamment sur de gros sites et aussi sur des sites moyens (>1000 pages) Lire la suite
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2017/05/crawl-seo-et-analyse-de-logs.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2017-05-30 14:01:462020-07-22 11:31:01Le glossaire du crawl en SEO
Les sites web utilisent des tas de fonctionnalités pour améliorer l’expérience utilisateur comme des menus de navigation, des liens vers des produits associés, des blocs de témoignages, des carrousels, etc… qui utilisent du code javascript développé « maison » ou via des services tiers (ex: jquery). Est ce que ces fonctions javascripts ne se font pas au détriment du SEO ? Comment Les moteurs de recherche perçoivent ces contenus générés en javascript ? Comment Google gère le crawl javascript ? Lire la suite
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2017/02/audit-seo-crawl-javascript.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2017-02-01 17:36:322020-07-22 11:32:28Audit technique SEO et crawl javascript
Je vais vous donner mon bilan sur les événements remarquables de cette année et sur mes prévisions du SEO pour 2017. D’après ma veille et mon expérience, les audits SEO réalisés cette année et l’accompagnement opérationnel de mes clients, je pourrais résumer 2016 et l’évolution du SEO en 2017 en quelques mots : Le mobile, l’expérience utilisateur (UX), la sémantique, le SEO technique et le big data. Et maintenant, je développe sur ces tendances du SEO pour 2017.
Le mobile
Bilan 2016
Ça n’aura échappé à personne, le mobile avait déja marqué 2015 depuis sa mise à jour Mobile Friendly du 21 avril 2015. Si cette mise à jour n’a pas vraiment eu l’effet escompté, ça aura au moins permis aux annonceurs de faire des efforts pour rendre leur site au moins compatible mobile et au mieux avec une expérience utilisateur vraiment pensée pour mobile. Mais selon les sites, cette mise à jour a quand même eu son effet. Si vous doutez encore de l’intérêt de rendre son site mobile-friendy, voici l’évolution de la visibilité SEO sur mobile d’un site que j’ai accompagné sur une refonte SEO mobile réalisée cet été :
Les critères mobile-friendly sont larges, Google pénalise par exemple le fait de bloquer via le robots.txt des ressources JS ou CSS utiles pour un affichage correct du site sur écran mobile. Sur Search console / explorer comme Google, il est indiqué si des ressources sont importantes sont bloquées par googlebot mobile. Avec moins de détails, il y a aussi l’outil de test de compatibilité mobile que je vous conseille de regarder de temps en temps car les critères mobiles évoluent.
D’ailleurs, L’affichage d’interstitiels trop larges sur écran mobile sera pénalisé à partir du 10 janvier 2017, vous savez les popups qui s’ouvrent sur mobile pour vous inciter à télécharger une application par exemple. (source)
L’importance du mobile n’est pas nouvelle, la tendance du trafic provenant de ce support est en hausse depuis un moment et il est normal que Google continue de s’y intéresser de près pour améliorer la pertinence de ses résultats mobiles. Voici l’évolution du trafic mobile d’un client:
On voit sur cet exemple, qu’en novembre, la part du trafic mobile sur tout le trafic atteint 38%. On constate aussi qu’en moyenne 77% du trafic mobile vient d’une recherche sur un moteur de recherche (=organique). Ces données varient d’un site à l’autre mais souvent supérieur à 50%. D’aillaurs Google a affirmé, qu’au niveau mondial, plus de recherches étaient faites sur mobile que sur ordinateur.
Google AMP
Google AMP (Accelerated Mobile Pages) permet d’afficher rapidement des articles avec une version AMP de ces articles. Contrairement aux instant articles de Facebook, cette version allégée de la page est toujours hébergée sur le site mais lorsque une page AMP est appellée depuis google, la page est servie depuis les serveurs de cache ultra rapides de Google. Ce projet Google AMP annoncé en octobre 2015 continue de se développer gentiment en 2016, avec notamment l’affichage d’images AMP sur Google images, l’affichage d’un carrousel d’actus AMP sur google actualités, etc..
Tendances SEO mobile 2017
Concernant Google AMP, Google va surement faire évoluer le format utilisé pour afficher ses résultats AMP car certaines études montrent une efficacité relative du format « carrousel » notamment sur mobile. La carrousel étant réputé comme un format peu apprécié des utilisateurs. Les résultats AMP s’affichent surtout sur des requêtes génériques et il est fort possible que ce type d’affichage se généralise sur des requêtes plus précises. Surtout utiles pour les sites médias, ce format va continuer de se généraliser sur d’autres type de sites (blogs, site e-commerce,..)
Pour l’instant, les résultats mobiles utilisent le même index que sur ordinateur et seulement quelques critères (recherche universelle, recherche locale, temporalité de la requête, site mobile friendly, etc..) viennent changer l’ordre des résultats. Google travaille actuellement sur un index mobile-first qui devrait sortir dans quelques mois. Les contenus mobiles serviront de base d’analyse pour le classement dans les pages de résultats, et plus depuis les pages ordinateur. Raison de plus d’avoir un site adapté au mobile car le futur de SEO passera par le mobile et le vocal.
D’ailleurs, il y a une tendance qui demande à se confirmer, celle des PWA (Progressive Web Apps), c’est à dire les sites dont le comportement ressemblent à des applications avec le push de notifications, des fonctionnalités offline, des sites légers (important pour les utilisateurs mobiles), etc…
La transition est toute faite, car les critères mobile friendly sont avant tout des critères touchant l’expérience utilisateur. Là aussi, c’est pas complètement nouveau et ça fait un moment que je parle de l’influence des critères d’usage (temps passé sur une page, taux de clics,..) sur le référencement naturel.
Le comportement utilisateur recoupe plusieurs facteurs mesurables qui ne se réduisent pas uniquement au CTR ou encore au taux de rebond, et c’est assez complexe de faire des tests objectifs. Ce qui est sûr, c’est que Google a déposé de nombreux brevets traitant de la mesure du comportement utilisateur et du traitement de ces données pour améliorer la pertinence de ses algorithmes. Je présente quelques uns de ces brevets dans cet article paru sur le JDN « lorsque Google s’inspire de l’expérience utilisateur » . Ce n’est donc pas vraiment un changement mais il y a eu beaucoup d’articles sur le sujet comme celui-ci de moz. Google est capable de capter les signaux utilisateurs grâce à son navigateur Chrome et ils sont déjà pris en compte dans ses algorithmes.
Beaucoup de critères de Google impactant le SEO sont des critères qui impactent l’expérience utilisateur comme les temps de chargement ou encore la prochaine pénalisation des interstitiels. Sur le graphe ci-dessous, on voit une forte corrélation entre diminution des temps de chargement et augmentation du nombre de pages vues par visites et diminution des taux de rebond.
données de suivi extrait d’un rapport mensuel client sur l’experience utilisateur
Au-delà du SEO, une bonne expérience utilisateur, c’est surtout un critère favorisant un bon taux de conversion et en cela, SEO et UX font partie d’un tout : l’inbound Marketing.
Tendances UX 2017
Google a mis à jour son « Search Quality Rating Guidelines » destiné à ses quality raters, le terme « expérience utilisateur » y apparaît même 16 fois. Vous pouvez télécharger ce guide ici. Il y a fort à parier que les critères sur l’expérience utilisateur prennent encore davantage d’importance en 2017.
Google améliore continuellement ses algorithmes sémantiques ou ses filtres comme panda, ce dernier faisant partie depuis 2016 de l’algorithme principal de Google. Rankbrain , une intelligence artificielle qui permet de donner des résultats pertinents sur des requêtes qu’il n’a jamais vu auparavant va continuer de s’enrichir avec le développement de la recherche vocale améliorant la pertinence des résultats longue traîne notamment.
Tendances SEO semantique 2017
Des appareils comme le smartphone Pixel et Google home, le haut parleur connecté et « intelligent » , sont dotés de google « assistant », un assistant personnel qui se nourrit de rankbrain qui se nourrit lui-même des recherches vocales entre autres. Ces appareils devraient sortir en france courant 2017.
Il faut toujours rédiger du contenu pour l’utilisateur mais avant d’arriver à cette étape de rédaction, il faut préparer le terrain pour les moteurs de recherches :
Quels sont les sujets à traiter ?
Quels sont les mots clés principaux, mots clés secondaires et variation de mots clés à inclure dans le texte
Quelles sont les pages à lier entre elles pour améliorer son pagerank sémantique et sur quelles textes de liens?
Toutes ces questions nécessitent d’être orchestrées par un référenceur, même si la rédaction est laissé à ceux dont c’est le métier, avec les problématiques de content marketing et d’engagement social.
Google va continuer d’améliorer ses algorithmes de traitement des données, ses algorithmes sémantiques et notamment RankBrain. RankBrain fait parti d’un ensemble basé sur le machine learning, c’est à dire la machine qui apprend toute seule, continuellement et de manière presque autonome.
Un des résultats de cette tendance c’est le développement de la « quick answer box », les réponses enrichies de Google qui apparaissent en haut de certaines requêtes dans les résultats du moteur de recherche et qui devient un enjeu de positionnement pour 2017.
Parallèlement à l’évolution des algorithmes sémantiques, le SEO n’a jamais été aussi technique. Les méthodes de bourrins ou autres techniques trop simplistes : le bourrage de mots clés, le linkbuilding à l’ancienne, et autres méthodes dont je vois qu’elles sont encore utilisées par beaucoup d’agences SEO ne fonctionnent plus et sont au contraire pénalisantes.
Les liens entrants
Le linkbuilding peux encore fonctionner mais à condition de le faire dans les règles de l’art. Mais même si c’est fait intelligemment, de toute façon, l’apport de liens entrants doit être compensé par des stratégies plus vertueuses et plus durables, d’apport de liens naturels via la création de contenu engageant, d’articles partagés sur les réseaux sociaux.
Plus de subtilité, plus de synergie avec les autres leviers du marketing (social media, content marketing, expérience utilisateur,…) entrant sont nécessaires pour faire du SEO. En 2016, on a vu que Google a intégré affiné son filtre penguin qui est coeur de ses algorithmes, et qui dévalorise les mauvais liens entrants notamment.
Le HTTPS
Le HTTPS fait partie des points qui sont devenus essentiels car à partir de janvier 2017, google va pénaliser les sites non-HTTPS. Passez son site en HTTPS est important pour sécuriser ses données contre le piratage, profiter du boost de positionnement de Google et profiter de la confiance grandissante apportée aux sites sécurisés de la part des internautes.
Tendances SEO technique 2017
Pour réaliser un audit SEO je commence par crawler un site, j’utilise des outils avancés et adaptés à des gros volumes de données. Depuis plus de 10 ans, j’analyse les logs du serveur web pour vraiment comprendre comment Google perçoit un site et apporter des solutions fines et personnalisées. Je n’ai jamais appréhender le SEO autrement, sans cette base technique. Aujourd’hui, ça commence à se démocratiser avec des outils comme Botify ou Oncrawl et je sens aussi une plus grande maturité des clients sur ces sujets.
En 2017, il y aura d’un côté les SEO avec de vrais connaissances techniques et de l’autre les SEO qui continuent de travailler avec d’anciennes méthodes, qui ne sont plus adaptées pour des sites qui ont un minimum d’ambition de visibilité sur Google.
Justement car le SEO devient de plus en plus complexe, il est nécessaire de croiser des données depuis plusieurs sources: Croiser des données de crawl de googlebot avec les données de visites provenant des moteurs de recherche, avec les signaux sociaux (like, tweets, …), avec les données analytics (conversions, temps passé sur la page, temps de chargement,…). C’est le type d’analyses que je fais systématiquement et que je continuerai à faire en 2017, non seulement car Google prend en compte de multiples signaux de sources différentes et simplement car la finalité du SEO c’est de convertir et de s’inscrire dans une stratégie webmarketing globale.
L’utilisation d’API permet de croiser des données de plusieurs sources pour faire des analyses ponctuelles dans le cadre d’un audit par exemple et aussi pour pouvoir monitorer en temps réel des données (nombre d’erreurs, conversions, temps de chargement, signaux sociaux, visibilité SEO, etc..). J’utilise d’ailleurs de nombreuses API (gratuites et payantes) dans mon dashboard multi leviers, qui permet de centraliser et de croiser plusieurs données au sein d’un même tableau de bord.
Conclusion
Voila pour mon bilan SEO 2016 et comment je vois l’évolution du SEO en 2017. J’ai oublié des choses dans les tendances SEO 2017 comme parler du HTTP2, pas facile d’être exhaustif mais j’en parlerai dans mes prochains articles. Inscrivez vous à la newsletter pour être alerté des nouveaux articles!
Je vous souhaite une très bonne année, la santé et des sites qui cartonnent.
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2017/01/SEO-2017.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2017-01-02 15:14:412017-01-04 12:31:10le SEO en 2017: Evolution et Tendances
Si vous comptez réaliser une refonte de votre site, la question de le passer en HTTPS ou pas devrait forcément se poser, surtout à partir de janvier 2017. Une migration de site est déjà une étape délicate du point de vue SEO, et il est pas rare de voir des catastrophes lorsque la question du référencement n’est pas correctement maîtrisée. Et si on rajoute à cela une migration du site HTTP vers une version sécurisée (HTTPS), il faut être doublement prudent sous peine de perdre son SEO.
https://www.creapulse.fr/wp-content/uploads/2016/12/guide-seo-migration-https.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2016-12-02 16:46:032020-07-22 11:32:46Comment migrer en HTTPS sans perdre son SEO ?
Une bonne expérience utilisateur est essentiel pour qu’un visiteur reste sur le site, qu’il convertisse et qu’il y revienne plus tard. En plus d’agir sur la conversion et la fidélisation, c’est également un enjeu majeur du référencement naturel car pris en compte dans les critères de positionnement de Google. Ce qui n’est pas bon pour l’utilisateur n’est pas bon pour les moteurs de recherche et donc le SEO. Les algorithmes Google comme les mises à jour Phantom appelé aussi « Quality Update » pénalisent les sites avec une mauvaise expérience utilisateur.
Pour sortir d’une pénalité manuelle ou Google Penguin, il est nécéssaire d’identifier les mauvais liens entrants (backlinks) qui pointent vers votre site afin de les supprimer. En fait, il faut même réaliser cette analyse de backlinks dans toute mission de référencement afin de prévenir toute pénalité, qu’elle soit algorithmique ou manuelle. C’est d’autant plus vrai depuis que Google Penguin est directement inscrit dans l’algorithme de Google, car il est plus difficile de savoir si un site est pénalisé ou pas vu qu’on ne peut plus faire de corrélations entre la date d’une mise à jour et une baisse de trafic. Lire la suite
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2016/10/connaitre-et-supprimer-mauvais-backlinks.jpg321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2016-10-04 08:40:052020-07-22 11:34:36[Guide] Comment connaitre et supprimer les mauvais Backlinks
On le répétera jamais assez, en réferencement naturel, vaut mieux prévenir que guérir. Lorsqu’on lance un nouveau site, il y a des choix qui sont déterminants pour votre future visibilité dans les moteurs de recherche. Il y a aussi des erreurs à ne pas commettre afin de ne pas se faire pénaliser par Google peu de temps après avoir lancé le site.
Mais surtout, il y a des erreurs qui sont plus difficiles (pas impossible)à corriger après lancement du site web et si on peut éviter que google n’indexe dès le départ des pages dupliquées ou des pages inutiles, c’est toujours du temps et des efforts de gagnés.
https://www.creapulse.fr/wp-content/uploads/2016/09/conseils-seo-lancement-site-1.gif321794Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2016-09-02 14:04:572020-07-22 11:36:07Mon top 10 des astuces SEO avant de lancer un site
2014 a été une grosse année bien chargée pour l’industrie du SEO, du digital, et aussi pour CreaPulse comme pour moi-même. Il y a eu des nouveautés, des mises à jours, des évolutions logiques, des choses qui se confirment, des fondamentaux qui perdurent et ce sera sans doute pareil pour 2015. Bon avec ça, j’ai pas dit grand chose 😀 .
j’ai donc décidé avec cet article de lister et commenter les meilleurs articles SEO que j’ai publié en 2014, sur ce site et des sites amis, afin de repasser sur quelques événements marquants de cette année. Les articles sont classés en fonction du volume total de partages sociaux : twitter, facebook, google+ et linkedin. Et au delà de ça, ça m’aide à comprendre ce qui a marché en 2014 et à me donner de l’inspiration pour 2015.
Le premier de ce classement SEO 2014 c’est un article au sujet de l’influence de la rapidité d’un site sur le référencement. C’est mon premier article sur webmarketing-com, et l’idée de l’écrire m’est venu en lisant un article du JDN de Pierre Elemento qui donne des conseils techniques pour améliorer la vitesse d’affichage d’un site. L’article est intéressant, mais ce qui l’est encore plus, ce sont les commentaires qui offrent un débat passionnant et passionné entre Olivier Andrieu, Pierre Elemento et moi-même. Olivier avait en effet quelques réserves sur l’influence réelle d’une bonne vitesse de chargement sur le référencement naturel. Je vous invite donc à lire ou à relire l’article qui apport justement un éclairage nouveau et des preuves sur l’impact de la vitesse sur le SEO. Twittez cet article
On retrouve en deuxième une belle infographie d’Adobe que j’ai traduite, corrigée et adaptée. Les infographies, ça continue de marcher, surtout si on apporte de la valeur ajoutée. On reste dans une certaine continuité puisque le deuxième article SEO de ce classement concerne l’interaction du référencement avec d’autres leviers du webmarketing. Cela me conforte dans mon positionnement puisque j’essaye justement de parler à la fois de SEO sous des angles assez techniques et en même temps intégré dans un environnement marketing cohérent. Les signaux sociaux font bien-sûr partie des critères qui ont compté en 2014 qui vont continuer de compter en 2015. Twittez cet article
Troisième de ce classement et deuxième article publié sur webmarketing-com. Cette fois, j’ai surfé sur le buzz Google penguin et j’ai été le premier à publier la liste des gagnants et perdants en France. En plus du côte exclusif, j’ai ajouté de la valeur ajoutée en comparant les caractéristiques similaires entre les sites pénalisés par penguin afin de mieux comprendre les facteurs les plus pénalisants. En 2015, ça va être difficile ou plus rare de refaire ce type d’articles car comme pour Panda, Google penguin va être de plus en plus intégré aux algorithmes. En tout cas, merci Sylvain Lembert de m’offrir la possibilité d’écrire sur ton site, tu fais parti de mon top 3 🙂 Twittez cet article
En quatrième, un article de fond assez récent sur l’audit sémantique. Le contenu est naturellement très attaché au référencement naturel même si je peste parfois contre certains qui caricaturent le SEO en le réduisant qu’à ça. C’est souvent des extrêmistes du content marketing d’ailleurs qui prêchent cette « bonne » parole. Mais comme le dit Aristote, « In medio stat virtus », la vertu se trouve au milieu. L’audit sémantique ou de contenu sert aussi à créer du contenu engageant pour les visiteurs et c’est donc utile dans toute stratégie de content marketing, tendance qui va se confirmer sans nul doute en 2015. Twittez cet article
Transition parfaite (j’ai pas fait exprès) pour montrer que le SEO ce n’est pas que du contenu et qu’il s’intègre avec d’autres leviers Inbound Marketing. Cet article publié sur le JDN explique l’évolution du SEO, les critères qui ont évolué dans les algorithmes de Google et les différentes étapes d’un audit SEO que j’ai nommé Inbound pour le fait qu’il intègre non seulement des techniques avancées en référencement (optimisation du crawl, de la structure,..) et autres domaines Inbound marketing que sont l’éxpérience utilisateur, les réseaux sociaux (SMO), la ereputation, le content marketing, le mobile marketing. Twittez cet article
Sixième de ce classement et troisième article publié en été. Qui a dit que l’été c’est fait que pour bronzer, c’est aussi fait pour partager 😉 . Avec cet article, on rentre dans les fondamentaux du SEO, c’est un article assez technique mais que j’essaye comme à mon habitude de rendre le plus accessible possible. Je décris quelques étapes d’un audit technique avec un cas pratique, j’ai donc pris un site au hasard, lastminute en l’occurence, sur lequel j’ai entrepris quelques exercices d’analyses SEO. Twittez cet article
Belle surprise avec ce guide sur la création de ses profils sur les réseaux sociaux. C’est un article qui fait partie d’une série, non terminée, de guides sur la stratégie sociale, et ils suivent un ordre logique, je n’ai donc pas calculé d’écrire sur un thème forcément très recherché. C’est un sujet qui peux paraître trivial et sur lequel on trouve peu d’informations sur le web. Depuis la création des images sur les profils facebook, les profils twitter, la création de liens depuis les profils facebook ou linkedin ou encore la confidentialité de ses profils, il y a de quoi dire finalement. Twittez cet article
Là pour le coup, je savais que c’était un sujet très recherché et très concurrentiel aussi. Il y a beaucoup d’infos qu’on peux trouver sur le net pour optimiser un site sur wordpress mais vu que c’est un sujet assez vaste, il est pas évident de tout trouver au même endroit et de manière suffisamment détaillée. J’ai donc décidé de m’atteler à cette tâche grâce à ma propre expérience sur l’optimisation sur wordpress et aussi à un gros travail de curation. Ce guide fait d’ailleurs partie d’une série de guides pour optimiser la vitesse d’un site . Twittez cet article
Encore un article publié en été où j’essaye d’expliquer étapes par étapes comment sortir de google panda et de s’en prévenir également. Comme pour Penguin, il va être plus difficile de savoir si un site s’est fait pénalisé en 2015, car sauf mises à jour majeures, ces filtres vont être de plus en plus intégrées directement à l’algorithme de google. Leurs effets sont donc plus continues sur les positions et les baisses de trafic éventuels. Ceci dit, un pré-audit ou un audit SEO permet de le savoir et d’apporter les solutions pour se faire dépénaliser et plus. Twittez cet article
Et pour finir ce classement des meilleurs articles SEO, une analyse de Buzzsumo qui regroupe plusieurs phénomènes influençant l’utilisateur dans la viralité d’un contenu. J’ai aussi ajouté mes propres études où j’analyse par exemple la corrélation ente la taille du texte et les visites organiques. Twittez cet article
Bon partage et Bonne fin d’année 🙂
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2014/12/meilleurs-articles-seo-2014.jpg340841Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2014-12-30 17:36:102017-03-24 10:01:29Mes 10 meilleurs articles SEO
Outil de test de vitesse de chargement d’une page web
J’ai l’honneur d’accueillir Damien Jubeau, le CEO de Dareboost, un outil pour tester la vitesse de chargement et la qualité d’une page web, avec des conseils d’optimisations. Au salon Ecommerce 2014, Dareboost a gagné le premier prix dans la catégorie « Technologie ». Je commence l’article par un test de l’outil, puis par l’interview vidéo de Damien qui a accepté de répondre à quelques questions, et enfin par la transcription de la vidéo en texte, au cas où vous seriez sur mobile et que la page ne se charge pas assez rapidement 🙂
Test de Dareboost
Lancement de l’analyse
On commence par entrer l’adresse de la page à analyser. Pour l’exemple, j’ai pris une page de catégorie du site leguide.com
On peux choisir le navigateur: Firefox, Chrome, ou même le mobile Nexus 5. Ca simule les performances ressenties par un utilisateur sur le navigateur sélectionné.
On peux choisir la résolution de l’écran. Ca peux avoir une influence sur les sites responsive. Par défaut, c’était en 1024 x 768, mais les utilisateurs aujourd’hui utilisent en majorité des résolutions plus élevées, j’ai donc changé cette valeur.
On peux choisir le lieu du test. C’est vraiment bien car c’est un des seuls outils du même type qui permet de choisir le lieu et en plus situé en france.
On peux choisir le débit : 3G, fibre, ADSL
Il y a la possibilité de tester une page protégée par mot de passe (.Htaccess), pratique pour vérifier un site en test.
On peux changer l’user-agent, c’est à dire l’entête HTTP du navigateur utilisé pour charger la page. Pour les sites qui font du cloaking sur google (Pas bien….), on peux mettre l’user-agent de googlebot.
On peux même s’amuser à changer une autre entête. On peux imaginer changer la langue du navigateur, au cas où la page affiche du contenu spécifique en fonction de la langue.
On peut dire que ça commence bien, autant d’options c’est rare même si la plupart du temps on se contentera des valeurs par défaut qui sont suffisantes en général.
Résumé des performances
Après l’analyse automatique de la vitesse de chargement de la page, on obtient un rapport des performances et de la qualité de la page :
On a un score sur 100, ici de 72, sachant que chaque point de vérification est pondéré en fonction de son importance.
Le temps de chargement en secondes, le poids de la page en megaoctets, le nombre de requêtes. Trois gros indicateurs qui permettent de juger de l’effort à faire pour améliorer la vitesse de chargement d’un site.
Concernant la validation W3C, ca a peu d’impacts directs sur le SEO mais ça peut avoir des implications sur la compatibilité et l’accessibilité.
On a également un aperçu des technologies utilisées. Dans cet exemple, le site utilise apache, jquery, sitecatalyst d’omniture (pour le suivi analytics) et modernizr (une librairie javascript). D’ailleurs, pour une vue encore plus exhaustive des technos utilisés, je recommande aussi le plugin google chrome BuiltWith Technology Profiler
Résumé des conseils
C’est sympa de voir tous ces indicateurs, mais ce qui est encore plus sympa c’est d’avoir les conseils pour améliorer la vitesse de son site. Dans cet exemple, les recommandations sont divisées en 11 rubriques (c’est variable) avec plus ou moins de conseils. Il y a même une rubrique sécurité, ce qui est assez rare pour le souligner. Il y a aussi une rubrique spécifique au référencement (SEO) qui vérifie quelques basiques comme la présence de titres H1, de alt sur les images,… Mais une grande partie des autres rubriques concerne aussi le SEO au final.
Sur la rubrique spécifique au référencement naturel, la page perd 8 points car l’url contient des underscore « _ » au lieu de tiret « – » dans l’url. En lisant l’explication, j’étais un peu chagriné car ils expliquent de remplacer l’underscore par le tiret. J’ai prévenu Damien Jubeau pour lui expliquer que l’effet sur google serait nulle, et que dans tous les cas il faudrait faire une redirection 301. Un système de feedback permet d’alerter le support au cas où la recommandation ne serait pas assez claire. L’explication a été mise à jour.
Détails des temps de chargement
En cliquant sur la partie « temps de chargement », on arrive sur une vue détaillée sur les différentes étapes de chargement de la page. Je ne vais pas expliquer chaque élément mais juste m’attarder sur le DOM (Document Object Model). Ce sont les éléments HTML qui composent une page (TABLE, TR, TD,…). Plus une page est complexe, plus elle a d’éléments DOM, plus la construction de la page est compliquée et plus le temps de chargement est long.
Détails des requêtes
En cliquant sur le nombre de requêtes, on obtient une vue classique en timeline du chargement des différentes requêtes, comme on peut l’obtenir avec d’autres outils comme pingdom tools , firebug ou simplement via la console de son navigateur. C’est toujours intéressant de voir le chargement en parallèle ou pas des requêtes, et voir à quel moment ça bloque.
Principaux axes d’améliorations
Puis on a accès à l’ensemble des conseils d’optimisations (il faut être connecté). Ils sont très clairs, en français, et classés par priorité. L’outil a même prévu un système de note de la recommandation afin qu’ils puissent améliorer la pertinence de leurs explications si besoin. On peut obtenir certains de ces conseils via des outils comme pagespeed insights , mais ici les explications sont bien plus exhaustives, parfois personnalisées en fonction de la plateforme utilisée sur le site et vont même plus loin que l’analyse du temps de chargement.
Les autres optimisations
Et on la suite des 57 conseils d’optimisations, rien que ça, qui concernent à 80 % l’amélioration des temps de chargement mais aussi comme on l’a vu les critères d’accessibilité, de sécurité ou de qualité. D’ailleurs cette liste s’agrandit régulièrement comme le précise Damien dans la vidéo qui suit.
Conclusion du test
Il y a également une fonction de monitoring qui peut vous alerter lorsque le site dépasse un certain seuil de temps de réponse, renvoie une erreur, passe en dessous un score de qualité défini, et génère dans tous les cas un rapport à intervalle régulier.
Parmi les outils de test de temps de chargement d’une page web, c’est le plus complet que j’ai testé. C’est même plus que ça, c’est presque un outil de contrôle de qualité d’une page web. Presque, car les critères d’évaluation sont nettement plus nombreux et il manque l’aspect humain biensûr pour les critères subjectifs, et même pour interpréter correctement certaines données, trouver des compromis et les solutions optimales. Mais pour un outil qui automatise les recommandations, il est vraiment bien fait.
Pour chipoter, on pourrait dire que la limitation réside principalement dans le fait que l’analyse se résume à l’analyse d’une seule page web (sauf en prestation de service), et c’est vrai pour l’ensemble de ce genre d’outils de toute façon. Si l’outil pouvait ajouter le crawl d’un site entier catégorisé et ajouter une dimension plus macro, ce serait encore plus pertinent. A ma connaissance, aucun outil ne fait ça actuellement, mis à part certains outils de crawl que j’utilise lors de mes audits SEO, mais l’objectif n’est pas le même. Ceci dit, les variations sur la vitesse de chargement sont surtout visibles d’un template à un autre et pas au sein d’un même template de page en général.
Vidéo Interview de Damien jubeau, CEO de Dareboost
Questions à Damien Jubeau
Peux tu te présenter aux lecteurs de Creapulse, expliquer ton parcours ?
Bonjour Serge,
Je suis passionné par le web depuis de nombreuses années, puisque j’ai mis en ligne mon premier site Internet en 1999, vers l’âge de 10 ans. Trois ans plus tard, j’ai commencé à m’intéresser réellement à la programmation, en débutant le PHP.
Cela m’a amené, une fois la majorité atteinte, a créer une micro-entreprise dédiée à la conception web, et à entamer des études supérieures en informatique.
Mes 3 dernières années d’études ont été mené en alternance, au sein d’un éditeur logiciels spécialisé dans le marketing mobile. J’ai notamment été amené à travailler sur des problématiques de performances web, sur des plate-formes utilisées par des grands comptes (banques, assurances, presse…).
Titulaire d’un diplôme d’ingénieur en Informatique, je me suis lancé fin 2013 dans l’aventure entrepreneuriale, avec 3 autres passionnés et une ambition commune : accélérer le web !
Comment t’es venue l’idée de créer Dareboost ?
DareBoost est le fruit de notre passion, de notre ambition, mais également de nombreuses rencontres. Nous avons notamment remarqué que les a priori sont nombreux quand on parle de temps de chargement. L’hébergeur, la connexion, ou bien le périphérique de l’nternaute sont souvent les sujets les plus pointés du doigt.
Même si ces aspects apportent évidemment leur lot de contraintes, nous aimons à rappeler que les clefs sont bien dans les mains des développeurs front-end, puisque c’est ici que se trouve plus de 80% du temps de chargement ressenti par un internaute ([source EN] http://www.stevesouders.com/blog/2012/02/10/the-performance-golden-rule/).
C’est donc à cet aspect que s’intéresse DareBoost en démocratisant le diagnostic et l’accès aux bonnes pratiques qui vont permettre d’accélérer de façon significative le site web.
Nous avons à coeur de réconcilier les décideurs et les développeurs, en rendant plus accessibles ces sujets techniques, et en facilitant les prises de décisions puisque l’outil est conçu pour cibler les priorités.
Comment Dareboost se différencie par rapport à d’autres outils de performance ?
Plusieurs facteurs à citer à ce niveau. Premièrement, comme expliqué dans ma réponse précédente, nous avons fait le choix de ne pas nous adresser uniquement à un public très technique. Cela se concrétise par des conseils plus détaillés que dans d’autres outils, avec également, tant que possible, un focus donné sur les enjeux.
L’élément de différenciation majeur reste notre capacité de conseil : nous avons dans notre base plus de 150 points de vérifications, et nous continuons à l’enrichir. Nous intégrons des outils reconnus comme le W3C, Google Page Speed, ou encore YSlow. Et nous rajoutons une couche de personnalisation en fonction des technologies que nous détections sur un site analysé. Par exemple, si nous détections que les images ne sont pas optimisées sur un WordPress, nous proposons des plugins pertinents pour ce CMS pour corriger le problème.
Notre outil est automatique, mais nous fournissons du sur-mesure. Et tout ça dans le temps, grâce à nos fonctionnalités de monitoring.
Autre point que nos utilisateurs nous remontent régulièrement : la clarté de notre interface, ce qui rejoint notre volonté de faciliter l’accès à ces sujets techniques, avec notamment un effort pour la représentation graphique des données de nos audits.
Ah oui, j’oubliais : notre solution est disponible en anglais et en français !
Quelles sont pour toi les implications de la vitesse de chargement d’un site sur le référencement et globalement le business d’un site web ?
Les débats sur le sujets sont nombreux, bien que nous n’ayons pas eu le temps encore de mener notre propre étude, nous avons collecté quelques informations à avoir en tête :
En avril 2010, Google a introduit la performance web dans son algorithme. A ce point, 1% des sites indexés étaient impactés.
A partir de 2010, Google affichait dans Webmaster Tools qu’un site chargé en moins de 1,5 seconde était considéré rapide
Le temps de chargement de votre site impacte le nombre de page que le Google Bot est capable de crawler dans une période donnée, ce qui impact donc le potentiel de pages indexées (quand on parle de volumes conséquents)
Pour résumer : bien que difficiles à quantifier, les impacts de la performance web sur le référencement ne sont plus contestables.
Et comme vos préoccupations ne se limitent sans doute pas au référencement, mais plus largement au succès de votre business, voici une liste non exhaustive des sujets impactés par le temps de chargement : taux de conversion, panier moyen, taux de rebond, satisfaction des internautes, revenus publicitaires ou encore coût de l’hébergement… (source : http://www.webmarketing-com.com/2014/07/09/28900-performance-web-etre-priorite-10-donnees-marquantes).
Conclusion : ne pas se préoccuper du temps de chargement de son site est une erreur qui peut s’avérer coûteuse.
Quelles sont les prochaines améliorations prévues pour Dareboost ?
Elles sont très nombreuses, et difficiles à lister ici puisque nous travaillons en lien étroit avec nos utilisateurs, pour centrer nos efforts sur les priorités immédiates de nos clients (nous faisons une mise à jour de l’outil chaque semaine), même si cela ne nous empêche pas non plus d’avoir des chantiers à plus long terme.
Nous veillons régulièrement à enrichir notre base de connaissance et à renforcer la qualité de nos conseils.
Un exemple de fonctionnalité qui va arriver très rapidement : une API, qui va permettre de nouveaux usages de notre solution, et notamment une intégration sur vos CMS favoris !
Combien coûte Dareboost et à qui ça s’adresse ?
Nous avons fait nos preuves sur des publics variés, de l’agence web au petit e-commerçant, de l’institutionnel aux décideurs marketing de grands groupes.
Nos tableaux de bord permettent aux décideurs d’avoir une vision claire de l’état des lieux technique, mais également de mieux estimer le ROI des chantiers envisagés.
Notre outillage complet et la richesse de nos diagnostics permettent aux métiers techniques de gagner en productivité, et de monter en compétence sur des technologies qui ne sont pas au coeur de leur savoir-faire.
Enfin, pour les projets de moindre envergure, la qualité de nos conseils permet à nombre de nos utilisateurs de gagner en autonomie et de procéder à des optimisations importantes, même sans compétence technique.
Nous proposons 3 offres en standard, respectivement à 19€, 99€ et 499€/mois, sans engagement.
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2014/10/dareboost-outil-test-chargement-web.jpg340841Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2014-10-30 11:46:572018-04-27 09:34:49Interview vidéo et test de Dareboost, un outil pour un site plus rapide
Adobe nous a gratifié d’une infographie montrant l’impact des réseaux sociaux sur le monde du webmarketing et spécialement sur le référencement naturel, la notoriété de marque, la relation client et la génération de trafic.
Cette étude de 2014 sous forme d’infographie, toujours d’actualité et que j’essaye de maintenir à jour, s’est enrichi avec de nouveaux réseaux sociaux analysés et aide à mieux comprendre l’influence des réseaux sociaux sur les objectifs SEO, ereputation, client et trafic. Je me suis permis de traduire l’original de cette infographie mais aussi de corriger certaines affirmations, notamment sur le SEO et pas seulement. Par exemple, Ils affirment que Pinterest fait parti du top 10 des facteurs influençant les positions sur google. Il se sont un peu emballés chez Adobe, mais le principe reste intéréssant et 80% des affirmations étaient correctes. Je retranscris ici la partie référencement de l’infographie.
Impact direct non, mais indirect oui !
Pour être très clair et avant de commenter l’impact des différents réseaux sociaux, il n’y a pas d’impact direct des réseaux sociaux sur le référencement et sur le positionnement dans les résultats de recherche. D’ailleurs Google l’a souvent dit comme sur ce tweet de Gary Illyes qui fait référence à cette vidéo de Matt Cutts, l’ancien porte parole iconique de Google:
L’impact des réseaux sociaux est seulement indirect mais pas anodin. Les visites provenant des réseaux sociaux, des visites en général plutôt engagés, ont aussi un impact sur le comportement utilisateur lors de la visite de la page. Ce n’est pas ici le sujet de cet article mais cet article sur l‘expérience utilisateur et le SEO en parle très bien.
Twitter et SEO
Les tweets favorisent de meilleures positions sur les recherches personnalisées de Google et les requêtes chaudes (QDF = Query deserve freshness). Les tweets favorisent le SEO en générant des liens depuis d’autres sites (linkbait). C’est un signal pris en compte par google.
Facebook et SEO
Bien que le partage de facebook est amené à prendre plus de poids dans le futur, actuellement seuls les liens depuis les fan pages comptent, pas les liens personnels. Les signaux facebook ont un poids sur l’authorrank (autorité de l’auteur).
Linkedin et SEO
Cette plateforme sociale ne fait pas parti pour l’instant des réseaux les plus déterminants pour google mais les profils personnels et entreprise contiennent beaucoup de contenus et des liens dofollow. Ces pages se positionnent en général très bien sur google.
Youtube
Les vidéos actives sur Youtube permettent d’apporter un vrai plus pour votre référencement vidéo (VSEO) , pour la page vidéo de youtube et/ou la page qui intègre la vidéo youtube. Les tags, la description sont un moyen en plus de se positionner.
Google+
Le +1 de Google+ permet à l’information d’être recherchée qu’elle soit privée ou publique. C’est un facteur de positionnement pris en compte par google. Et c’est aussi un facteur de crawl, car une URL partagée sur google+ sera immédiatement vue par Google.
Pinterest
L’activité sur pinterest associé à une page web fait partie des facteurs qui influencent les positions d’une page sur google de manière plus ou moins indirecte, du fait de son association avec twitter et de l’engagement social généré.
Slideshare
Le contenu qui est uploadé sur Slideshare est retranscrit en texte avec la possibilité de rajouter des liens vers les pages du site. Les liens sur le PDF sont suivis par Google et auraient un poids plus important que d’autres liens.
Instagram
Cette plateforme sociale brille plus sur mobile que sur ordinateur, donc son intérêt SEO est limité. Cependant, cela peux changer dans l’avenir surtout que le service appartient à Facebook.
Je vous laisse découvrir cette infographie riche d’enseignements. Pensez à agrandir l’image en haut à droite.
/par Serge Esteves
https://www.creapulse.fr/wp-content/uploads/2014/07/Influence-des-reseaux-sociaux-sur-SEO-et-webmarketing1.jpg300841Serge Esteveshttps://www.creapulse.fr/wp-content/uploads/2019/11/LOGO-CREAPULSE-2019-2.pngSerge Esteves2014-07-07 11:15:222019-03-13 12:13:59[Infographie] Influence des reseaux sociaux sur le SEO et votre webmarketing
Ce site utilise des cookies qui permettent de fournir des données anonymes pour mieux comprendre l'usage du site. En poursuivant votre navigation, vous acceptez l’utilisation des cookies.
Nous pouvons demander que des cookies soient configurés sur votre appareil. Nous utilisons des cookies pour savoir, via des données anonymes, comment vous visitez notre site, comment vous interagissez avec nous, pour enrichir votre expérience utilisateur, et pour personnaliser votre relation avec notre site Web.
Cliquez sur les différentes catégories pour en savoir plus. Vous pouvez également modifier certaines de vos préférences. Notez que le blocage de certains types de cookies peut affecter votre expérience sur notre site et les services que nous sommes en mesure d'offrir.
Les cookies essentiels au site
Ces cookies sont strictement nécessaires pour vous fournir des services disponibles sur notre site Web et pour utiliser certaines de ses fonctionnalités
Parce que ces cookies sont strictement nécessaires à la construction du site, vous ne pouvez pas les refuser sans impacter le fonctionnement de notre site. Vous pouvez les bloquer ou les supprimer en modifiant les paramètres de votre navigateur et en forçant le blocage de tous les cookies sur ce site.
Google Analytics Cookies
Ces cookies recueillent des informations anonymes qui sont utilisées soit sous forme agrégée pour nous aider à comprendre comment notre site Web est utilisé ou à quel point nos campagnes de marketing sont efficaces, ou pour nous aider à personnaliser notre site Web afin d'améliorer votre expérience.
Si vous ne voulez pas que nous suivions votre visite sur notre site, vous pouvez désactiver le suivi dans votre navigateur ici:
Autres services tiers
Nous utilisons également différents services externes tels que Google Webfonts, et des fournisseurs de vidéos externes. Étant donné que ces fournisseurs peuvent collecter des données personnelles comme votre adresse IP, nous vous permettons de les bloquer ici. Sachez que cela pourrait réduire considérablement la fonctionnalité et l'apparence de notre site. Les modifications prendront effet une fois que vous rechargez la page.
Paramètres Google Webfont:
Paramètres Youtube :
Politique de confidentialité des données
Vous pouvez en savoir plus sur nos paramètres de confidentialité sur notre page Politique de confidentialité..