Bilan SEO 2015 et conseils pour 2016

Je vais essayer de vous donner mon point de vue sur les événements remarquables de cette année et sur ma vision du SEO pour 2016. D’après ma veille et mon expérience, les audits SEO réalisés cette année et l’accompagnement opérationnel de mes clients, je pourrais résumer 2015 et le futur du SEO en 2016 en quelques mots : Le mobile, l’expérience utilisateur (UX), la sémantique, le SEO technique et le big data.  Et maintenant, je développe.

Le mobile

Bilan 2015

Ça n’aura échappé à personne, le mobile a marqué 2015 notamment depuis sa mise à jour Mobile Friendly du 21 avril 2015. Si cette mise à jour n’a pas vraiment eu l’effet escompté, ça aura au moins permis aux annonceurs de faire des efforts pour rendre leur site au moins compatible mobile et au mieux avec une expérience utilisateur vraiment pensée pour mobile. Mais selon les sites, cette mise à jour a quand même eu son effet. Si vous doutez encore de l’intérêt de rendre son site mobile-friendy, voici l’évolution de la visibilité SEO sur mobile d’un site depuis une refonte réalisée cet été :

Visibilité mobile VS Ordinateur depuis une refonte estivale

Visibilité mobile VS Ordinateur depuis une refonte estivale

On voit bien la progression de la visibilité sur mobile avec un score qui dépasse même celui sur ordinateur. Bien-sûr, l’intérêt n’est pas que pour les positions du site sur les pages de résultats de Google mobile mais aussi et surtout pour l’utilisateur.

Les critères mobile-friendly ne sont pas figés, ils évoluent, si vous suivez mon article de veille mensuel, vous savez certainement que Google pénalise le fait de bloquer via le robots.txt des ressources JS ou CSS utiles pour un affichage correct du site sur écran mobile. Sur Search console / explorer comme Google, il est indiqué si des ressources sont importantes ou pas pour un affichage correct des pages pour googlebot. Avec moins de détails, il y a aussi l’outil de test de compatibilité mobile que je vous conseille de regarder de temps en temps car, comme je l’ai dis, les critères mobiles évoluent.

Ah oui, j’oubliais, l’affichage d’interstitiels de téléchargement d’applis trop larges sur écran mobile est pénalisé également, vous savez les popups qui s’ouvrent sur mobile pour vous inciter à télécharger l’application.

L’importance du mobile n’est pas nouvelle, ça fait un moment que le trafic provenant de ce support progresse et il est normal que Google s’y soit intéressé de près pour améliorer la pertinence de ses résultats mobiles. Voici l’évolution du trafic mobile d’un client:

Evolution du trafic mobile d'un site client

Evolution du trafic mobile d’un site client

On voit sur cet exemple, qu’entre mars et novembre, la part du trafic mobile sur tout le trafic est passé de 25% à 28%. On constate aussi qu’en moyenne 70% du trafic mobile vient d’une recherche sur un moteur de recherche (=organique). Ces données varient d’un site à l’autre mais Google a dit, qu’au niveau mondial, plus de recherches étaient faites sur mobile que sur ordinateur.

Google AMP

le projet Google AMP (Accelerated Mobile Pages) annoncé en octobre 2015 fait partie aussi des nouveautés apparus en 2015. Google AMP permet d’afficher rapidement des articles avec une version AMP de ces articles. Contrairement aux instabnt articles de Facebook, cette version allégée de la page est toujours hébergée sur le site mais  lorsque une page AMP est appellée depuis google, la page est servie depuis les serveurs de cache ultra rapides de Google.

Pour 2016

Google a déjà annoncé la sortie de Google AMP sur ses pages de résultats, début 2016. Pour l’instant, rien n’indique que Google va donner un boost de ranking aux pages proposant une version AMP mais vous pouvez être sûr que Google va mettre en avant ce format en 2016. Ce sera surtout utile pour les sites médias dans un premier temps, mais on peux facilement supposer que l’affichage de pages au format AMP soit plus généralisé.

Pour l’instant, les résultats mobiles sont proches de ceux sur ordinateur et seulement quelques critères (recherche universelle, recherche locale, temporalité de la requête, label mobile friendly, etc..) viennent changer l’ordre des résultats. Déjà évoqué en 2015 par Google, il y a fort à parier qu’un véritable index mobile sorte en 2016.

Depuis 2015, Google est capable d’indexer les liens et le contenu à travers les applications mobiles, l’optimisation des applications mobiles et 

2016 fera la part belle à l' #ASO (App Store Optimization) Cliquez pour Tweet

Pour aller plus loin sur le mobile

L’expérience utilisateur

Bilan 2015

La transition est toute faite, car les critères mobile friendly sont avant tout des critères touchant l’expérience utilisateur. Là aussi, c’est pas complètement nouveau et ça fait un moment que je parle de l’influence des critères d’usage (temps passé sur une page, taux de clics,..) sur le référencement naturel. C’est un sujet assez polémique car certains tests ont été effectués avec des résultats souvent contradictoires comme ce test sur l’influence des taux de clics dans les résultats des moteurs de recherche (CTR) .

Mais le comportement utilisateur recoupe plusieurs facteurs mesurables qui ne se réduisent pas uniquement au CTR ou encore au taux de rebond, et c’est compliqué de faire des tests objectifs. Ce qui est sûr, c’est que Google a déposé de nombreux brevets traitant de la mesure du comportement utilisateur et du traitement de ces données pour améliorer la pertinence de ses algorithmes. Je présente quelques uns de ces brevets dans cet article paru sur le JDN « lorsque Google s’inspire de l’expérience utilisateur » . Ce n’est donc pas vraiment un changement mais il y a eu beaucoup d’articles cette année sur le sujet comme celui-ci de moz. Google est capable de capter les signaux utilisateurs grâce à son navigateur Chrome et ils sont déjà pris en compte dans ses algorithmes.

La nouveauté je pense, c’est qu’il y a enfin une prise de conscience sur l’importance d’aligner les contraintes SEO et les contraintes UX (User eXperience) notamment lors de la construction d’un menu de navigation par exemple. Dans le cadre d’une structure de navigation, les objectifs SEO sont la contextualisation sémantique, la diminution des niveaux profondeurs, la répartition du pagerank interne, … et les objectifs UX étant l’ergonomie, le web design,..

Il y a même des critères qui impactent à la fois le SEO et expérience utilisateur comme les temps de chargement. Sur le graphe ci-dessous, on voit une forte corrélation entre diminution des temps de chargement et augmentation du nombre de pages vues par visites et diminution des taux de rebond.

données de suivi extrait d'un rapport mensuel client sur l'experience utilisateur

données de suivi extrait d’un rapport mensuel client sur l’experience utilisateur

Au-delà du SEO, une bonne expérience utilisateur, c’est surtout un critère favorisant un bon taux de conversion et en cela, SEO et UX font partie d’un tout : l’inbound Marketing.

Pour 2016

Google a mis à jour son « Search Quality Rating Guidelines » destiné à ses quality raters, le terme « expérience utilisateur » y apparaît même 16 fois. Vous pouvez télécharger ce guide ici.  Il y a fort à parier que les critères sur l’expérience utilisateur prennent encore davantage d’importance en 2016.

Pour aller plus loin sur l’expérience utilisateur

La sémantique

Bilan 2015

Google améliore continuellement ses algorithmes sémantiques ou ses filtres comme panda. Le principal changement 2015 est sans doute l’annonce officielle par google de l’utilisation de « Rankbrain », une intelligence artificielle qui permet de donner des résultats pertinents sur des requêtes qu’il n’a jamais vu auparavant. Rankbrain fait partie d’un autre algorithme « Hummingbird » qui améliore la pertinence des résultats spécifiquement sur de la longue traine.

Du coup, toutes ces évolutions sémantiques ont fait naitre des nouvelles voix disant que le SEO est mort, que le contenu est ROI, … Bien sûr les personnes qui disent ça pensent que le SEO n’est qu’une histoire de mots clés alors que ça fait bien 10 ans que le SEO c’est bien plus que ça. Donc forcément, avec cette vue biaisée du SEO, si on dit que Google améliore ses algorithmes sémantiques, ca veux dire que le SEO est mort… Biensûr 😉

Pour 2016

Je pense au contraire qu’il faut toujours bien sûr écrire pour l’utilisateur mais avant d’arriver à cette étape de rédaction, il faut préparer le terrain pour les moteurs de recherches :

  • Quels sont les sujets à traiter ?
  • Quels sont les mots clés principaux, mots clés secondaires et variation de mots clés à inclure dans le texte
  • Quelles sont les pages à lier entre elles pour améliorer son pagerank sémantique et sur quelles textes de liens?

Toutes ces questions nécessitent d’être orchestrées par un référenceur, même si la rédaction est laissé à ceux dont c’est le métier, avec les problématiques de content marketing et d’engagement social.

Google va continuer d’améliorer ses algorithmes de traitement des données, ses algorithmes sémantiques et notamment RankBrain. RankBrain fait parti d’un ensemble basé sur le machine learning, c’est à dire la machine qui apprend toute seule, continuellement et de manière presque autonome. Ce qui fait qu’au final, les critères sémantiques en deviennent beaucoup plus complexes.

Pour aller plus loin sur la sémantique

Le SEO, toujours Plus technique

Parallèlement à l’évolution des algorithmes sémantiques, le SEO n’a jamais été aussi technique. Les méthodes de bourrins ou autres techniques trop simplistes : le bourrage de mots clés, le linkbuilding à l’ancienne (créations de liens externes à la papa) et autres méthodes dont je vois qu’elles sont encore utilisées par beaucoup d’agences SEO ne fonctionnent plus et sont au contraire pénalisantes.

Le linkbuilding peux encore fonctionner mais à condition de le faire dans les règles de l’art. Mais même si c’est fait intelligemment, de toute façon, l’apport de liens externes doit être compensé par des stratégies plus vertueuses et plus durables, d’apport de liens naturels via la création de contenu engageant, d’articles partagés sur les réseaux sociaux.

Plus de subtilité, plus de synergie avec les autres leviers du marketing (social media, content marketing, expérience utilisateur,…) entrant sont nécessaires pour faire du SEO. En 2015, on a vu que Google a renforcé sa lutte contre les réseaux de liens, renforcé son filtre penguin qui lutte contre la suroptimisation et notamment sur les méthodes de création de liens externes.

Pour réaliser un audit SEO j’ai toujours commencé par crawler un site, j’ai commencé avec Xenu et maintenant j’utilise des outils beaucoup plus avancés et adaptés à des gros volumes de données. Depuis près de 7 ans, j’analyse les logs du serveur web pour vraiment comprendre comment Google perçoit un site et apporter des solutions fines et personnalisées. Je n’ai jamais appréhender le SEO autrement, sans cette base technique. Mais je vois qu’aujourd’hui, ça commence à se démocratiser avec des outils comme Botify ou Oncrawl et je sens aussi une plus grande maturité des clients sur ces sujets.

Je pense que c’est déjà vrai aujourd’hui, mais plus que jamais en 2016, il y aura d’un côté les SEO avec de vrais connaissances techniques et de l’autre les SEO qui continuent de travailler avec d’anciennes méthodes, qui ne sont plus adaptées pour des sites qui ont un minimum d’ambition de visibilité sur Google.

Pour aller plus loin sur le SEO technique

Le big data au service du seo

Justement car le SEO devient de plus en plus complexe, il est nécessaire de croiser des données depuis plusieurs sources: Croiser des données de crawl de googlebot avec les données de visites provenant des moteurs de recherche, avec les signaux sociaux (like, tweets, …), avec les données analytics (conversions, temps passé sur la page, temps de chargement,…). C’est le type d’analyses que je fais systématiquement et que je continuerai à faire en 2016, non seulement car Google prend en compte de multiples signaux de sources différentes et simplement car la finalité du SEO c’est de convertir et de s’inscrire dans une stratégie webmarketing globale.

L’utilisation d’API permet de croiser des données de plusieurs sources pour faire des analyses ponctuelles dans le cadre d’un audit par exemple et aussi pour pouvoir monitorer en temps réel des données (nombre d’erreurs, conversions, temps de chargement, signaux sociaux, visibilité SEO, etc..). J’utilise d’ailleurs de nombreuses API dans mon dashboard multi leviers, qui permet de centraliser et de croiser plusieurs données au sein d’un même tableau de bord.

Conclusion

Voila pour mon bilan SEO 2015 et comment je vois le futur du SEO en 2016. J’ai surement oublié des choses, pas facile d’être exhaustif mais si je les ai oublié c’est surement pas si important 🙂

Je vous souhaite de très bonnes fêtes, des sites qui cartonnent et n’oubliez pas, il y a pas que le SEO dans la vie… (Je me dis ça à moi même je crois 😉

    A propos de Serge Esteves

    Consultant SEO / Webmarketing : Techniques avancées en référencement combinées aux leviers du marketing entrant (SMO, content marketing, UX, ereputation, ..).
    Vous souhaitez vous joindre à la discussion ?