experience-utilisateur-et-SEO

Les principes de l’expérience utilisateur liés au SEO

Guide de l’expérience utilisateur
  • Les principes de l’expérience utilisateur liés au SEO

L’expérience utilisateur et notamment les domaines de l’ergonomie web et du web-design, possède ses propres lois. L’expérience utilisateur est une histoire de psychologie et les concepts que nous allons voir, élaborés par des rédacteurs, ergonomes, UX-designer, architectes de l’information nous donnent des règles pour offrir à nos utilisateurs une bonne expérience. Google se nourrit du comportement utilisateur pour améliorer la pertinence des résultats de son moteur de recherche. On va voir que la mécanique de ses algorithmes s’inspirent des principes de l’expérience utilisateur.

L’expérience utilisateur en quelques mots

Dans le digital, l’expérience utilisateur est la synergie de plusieurs compétences qui influencent l’interaction d’un visiteur sur un site web. On retrouve donc bien sûr l’ergonomie, le design web mais aussi la qualité d’un contenu, l’architecture de l’information, et même des aspects plus techniques comme le temps de chargement d’un site par exemple. L’objectif d’une bonne expérience utilisateur est d’offrir au visiteur un moment agréable, répondant à ses attentes, à sa recherche ET qui le fera convertir.

L’expérience utilisateur dépend de nos réactions, de nos émotions, de notre activité cérébrale face à une page web.
Cette activité mentale est à la fois consciente et inconsciente:

  • L’activité Consciente, qu’on peut appeler la réflexion, est notre part logique et rationnel. Lorsqu’on demande à un fumeur si il veux s’arrêter, il répond en général oui, mais souvent il le fait pas …
  • L’activité inconsciente est rapide et automatique, on ne pense pas à lire un article, on le fait. Et qu’on le veuille ou non, c’est la part la plus importante de notre esprit.

Les principes UX (User eXperience) tirent justement leur source de cet inconscient qui régit des comportements communs. Le caractère commun, binaire, automatique, rapide de ces règles en font des ingrédients parfaits pour être automatiser au sein des algorithmes des moteurs de recherche. C’est ainsi qu’il est amusant de constater le parallèle entre certains principes UX et le référencement naturel. J’ai d’ailleurs écrit un article sur le journal du net où je commente plus en détails quelques brevets de google sur son utilisation des données utilisateurs.

La loi de Fitts et le surfeur raisonnable

surfeur raisonnable

Schéma de distribution du pagerank d’après le modèle du surfeur raisonnable

 

La loi de Fitts représente le temps pour aller d’un point A à un point B en fonction de la taille et de la distance de la cible. Plus un bouton est gros et proche, et plus il est facile à atteindre. Cette loi de Fitts est en général utilisée pour les appels à l’action. Ça parait logique, pour inciter les visiteurs à cliquer c’est mieux si il est suffisamment gros et dans la ligne de flottaison (partie visible d’un écran sans scroll).

Et voici un extrait de ce que dit le brevet de google sur le classement des documents basés sur les données et le comportement utilisateur:

The method of claim 1, where the features associated with one of the plurality of first links include at least one of a font size of anchor text associated with the one of the plurality of first links

Le surfeur raisonnable

Dans ce brevet qui décrit le modèle du surfeur raisonnable, on voit que la taille de police d’un lien est une des caractéristiques qui donnent plus de poids à un lien. Le surfeur raisonnable est un principe inventé par Google qui décrit la probabilité d’un utilisateur lambda de cliquer sur un lien et qui permet de calculer le « jus » transmis par un lien. Le surfeur raisonnable a plus de chances de cliquer sur un lien plus gros et donc la page liée recevra plus de pagerank.
Le surfeur aléatoire quant à lui, modèle plus ancien et à l’origine de la forme initiale du pagerank, a la même probabilité de cliquer sur n’importe quel lien d’une page, le jus transmis est donc identique sur tous les liens d’une page.

C’est une des raisons qui fait que les titres de pages, plus gros que le reste, représentent bien-sûr un critère important pour la pertinence d’une page. C’était aussi le cas pour les textes en gras à une époque, mais moins aujourd’hui à cause d’abus de cette balise.

D’après le brevet, le modèle du surfeur raisonnable se base sur d’autres caractéristiques que la taille de police comme la position du lien dans la page par exemple. Ce même document explique aussi la prise en compte des critères d’usage de la page comme le nombre de fois qu’un lien est cliqué, le taux de retour, …

La règle des 3 clics

regle-des-3-clics

Profondeur: nombre de clics nécessaires pour atteindre une page depuis la page d’accueil

 

La règle des 3 clics est une règle assez connue d’ergonomie selon laquelle une page doit être accessible en 3 clics maximum depuis la page d’accueil, sous peine de frustrer le visiteur et de le faire quitter le site. En terme SEO, on appelle cela aussi la profondeur d’une page et pour faciliter l’exploration, l’indexation et le positionnement d’une page par Google, cette profondeur doit être la plus basse possible.

Cette règle est difficile à respecter pour l’ensemble des pages d’un gros site car on peux vite atteindre cette limite. De la même manière, proposer un grand nombre de liens sur une même page peux venir aussi troubler le visiteur.

Cette règle des 3 clics ne devrait pas être considérée de manière absolue mais surtout pour les pages les plus importantes. Par exemple, un site ecommerce doit faire en sorte de proposer l’ensemble de ses catégories principales en 3 clics maximum. Une arborescence qui dépasse 3 niveaux devient vite compliqué pour la navigation de l’internaute. Et pour le référencement, des pages accessibles après 3 niveaux de profondeurs perdent rapidement en efficacité avec un taux de pages actives plus faible. (page active = page qui fait au moins une visite)

La loi de Hick

Loi de Hick

Loi de Hick ou lorsque trop de choix tue le choix

 

La loi de Hick énonce le principe que plus il y a de choix, plus il faut du temps pour prendre une décision. Sur un menu de navigation, plus il y a de catégories et plus le choix sera difficile. Pour les sites avec beaucoup de pages et de catégories, pour faciliter l’expérience utilisateur, il faudrait affiner les choix possibles au fur et à mesure que la navigation se précise.

Le cas du méga menu est intéressant car il réduit la profondeur d’un grand nombre de pages et en même temps propose un grand nombre de choix immédiatement. Nous avons donc 2 lois qui s’affrontent: la règles des 3 clics et la loi de Hick. Mais comme la règle des 3 clics s’adressent surtout aux pages les plus importantes du site, proposer l’intégralité des sous-sous catégories d’un site par exemple n’est pas forcément optimal. D’ailleurs rares sont les méga menu vraiment ergonomiques et faciles à utiliser. Ceci dit, il n’est pas impossible d’avoir un méga menu agréable mais il doit respecter d’autres lois, notamment celles de Gestalt qu’on verra plus tard dans l’article.

En tout cas, d’un point de vue référencement, la loi de Hick devrait être respectée car le fait d’avoir un menu de 400 liens sur l’ensemble des pages d’un site va ruiner toute contextualisation sémantique, ruiner toute bonne distribution du pagerank interne et adieu le PR sculpting (=technique d’optimisation de la distribution du pagerank interne). La solution dans ce cas est de montrer partiellement le méga menu en fonction du contexte de la page.

Loi de Pareto

Loi de Pareto, longue traine et PR sculpting

Tableau sur l’efficacité des pages selon la loi de Pareto

 

La loi de Pareto ou la règle du 80-20 est une loi assez connue qui s’applique à plusieurs domaines comme le contrôle qualité, la vente, le marketing, l’ergonomie, le webdesign et le référencement. Le constat de ce principe est que 80% des effets sont provoquées par 20% des causes.

En matière d’architecture de l’information, ça signifie qu’il y a 20% d’éléments sur un site qui provoquent 80% des objectifs. Il faut donc faire en sorte que l’attention de l’utilisateur ne soit pas dispersée inutilement par des éléments superflus. D’ailleurs la tendance va vers des sites plus sobres, plus clairs et plus rapides par conséquent.

Bien-sûr, là-aussi, cette loi n’est pas à considérer de manière absolue. Dans mes audits SEO, je constate souvent qu’une faible partie du site génère une grande partie des visites. Le tableau ci-dessus est extrait d’une analyse d’un site web afin de voir la répartition des urls, du crawl et des visites au sein d’un site. Ca permet notamment de voir comment Google répartit son temps de crawl sur le site et son efficacité sur les visites. On voit ici que 9% des urls représentent 25% du crawl pour 66% des visites. 9% des urls du site qui sont des fiches produits font 66% des visites, je pourrais aller plus loin en montrant que dans les fiches produits, seul une faible part est responsable des visites.

On retrouve ce principe de Pareto dans la longue traîne aussi: la part des mots clés à faible potentiel de trafic dont le cumul représentent le plus de trafic d’un site.

Cette loi de Pareto ou règle du 80/20 est approximative. Ce qu’il faut retenir de cette loi c’est que de petites causes ont de grands effets.

Cette loi de Pareto on l’a retrouve aussi lorsqu’on fait du Pagerank Sculpting. Toutes les pages d’un site n’ont pas le même potentiel de trafic et un des objectifs du PR sculpting est d’apporter plus de liens à quelques pages ciblées plutôt que de manière homogène sur toutes les pages du site. Il s’agit donc de favoriser une minorité de pages et non une majorité.

La Théorie de Gestalt

Les lois de gestalt

Les lois de gestalt

 

La théorie de gestalt est une théorie psychologique selon laquelle la perception visuelle traite l’information reçue dans des ensembles avant de la traiter de manière individuelle. Cette théorie comporte plusieurs lois:

  • La loi de clôture: On a tendance à vouloir fermer des objets ouverts et donc à remplir les vides. Cette loi permet notamment de structurer visuellement l’espace négatif utilisé par exemple dans des logos (exemple ci-dessus avec le célèbre logo représentant un panda… encore lui 😉 ou simplement dans la mise en page d’un site web.
  • La loi de la proximité: Les objets proches sont perçus comme un seul objet. En ergonomie, il faut donc faire attention à ce que des éléments différents ou n’ayant pas le même objectif ne soient pas trop proches. De la même manière, les éléments appartenant à un même groupe doivent être proches. Par exemple, les sous-catégories affichées sur une colonne verticale ou horizontalement doivent être proches du menu de leur catégorie principal… Et ce n’est pas toujours le cas
  • La loi de similitude: Lorsque la distance entre les objets ne permet pas de faire ce rapprochement, l’impression de similarité se fait sur la forme ou la couleur. Les blocs de contenu identique doivent avoir un type d’information identique, et si ce n’est pas le cas, il faut changer soit la forme, soit la couleur. Par exemple, un bloc promotionnel ou un bloc de newsletter disposé sur une colonne au même niveau que des blocs de liens devrait être légèrement différencié par sa forme et/ou sa couleur.
  • La loi de symétrie: Notre esprit a tendance à associer les éléments symétriques. Pour donner une sensation agréable à la mise en page d’un site, il faut veiller à garder une certaine symétrie dans vos éléments de contenu. Sur une page avec 3 colonnes blocs, la taille des colonnes devrait être identique.
  • La loi de destin commun: L’esprit humain a tendance a regrouper les objets qui ont une trajectoire identique.
  • La loi de continuité: Notre esprit a tendance a représenter des points rapprochés en formes connues. Sur le dessin au dessus (en haut à droite), on a l’impression de voir un arbre.

Je ne voudrais pas non plus transposer tous ces principes d’ergonomie et de web-design de manière obsessionnel avec le SEO, mais le rapport que j’y vois est que l’utilisateur a une perception différente selon l’ergonomie et le design d’une page, il est attiré naturellement par certaines zones de contenu. Et le modèle du surfeur aléatoire s’attache justement à donner plus de poids aux contenus et aux liens en fonction de leur zone dans la page:

  • Le contenu placé en haut de la page est important pour le référencement.
  • Les contenus placés dans le menu, dans une colonne, dans le corps de la page, en footer sont traités différemment.
  • Les liens placés à proximité d’un contexte sémantique ont plus de poids que des liens placés en footer par exemple.
  • On retrouve les principes de proximité et de similitude dans des algorithmes comme le TF-IDF, la co-citation dont je parle plus en détails sur ce guide qui parle de la manière dont google perçoit la qualité d’un contenu

Le modèle de David Ogilvy

Le modèle de mise en page de David Ogilvy

Le modèle de mise en page de David Ogilvy

David Ogilvy, surnommé le « père de la publicité », en plus d’être un acteur majeur de la publicité dans les années 50-90, mit au point une méthode de mise en page consistant à mettre en avant l’accroche visuelle avant le chapô et le reste du texte.

Après plusieurs tests de placement, il se rendit compte que nous lisons suivants une séquence précise. Premièrement, on regarde d’abord l’image si il y en a une. Puis, le titre. Et enfin, le corps de l’article, si le titre donne envi de lire. Avec ce placement, Il obtint son meilleur taux de lecture. Il faut bien sûr que l’image communique une information ou une émotion pour que ce soit efficace. D’autres études de eyetracking ont confirmé l’efficacité de ce modèle, et ont démontré par exemple que nous lisions 3 fois plus les légendes des images que le corps de l’article.

Ce modèle Ogilvy, originellement pour la presse papier, est assez proche de ce qu’on peux voir pour les articles de news, même si le titre est en général placé avant l’image. Les bonnes pratiques SEO pour Google news s’inspirent largement de ce modèle.

Une bonne image a deux impacts majeurs pour le référencement:

  • Un impact direct, la simple présence d’une image aide en général à mieux positionner la page. C’est d’autant plus vrai sur google actualités et certaines requêtes qui appellent la présence d’une image.
  • Un impact indirect, une bonne image aura forcément un impact sur l’expérience utilisateur et Google est capable de détecter le comportement utilisateur comme un signal de qualité (ou pas): le taux de rebond d’une page vers sa page de résultat par exemple.

Conclusion

La conclusion est que l’application de ces principes utilisateurs a un impact direct ET indirect sur le SEO:

  • Direct car comme on l’a vu certains des principes ergonomiques sont inclus en partie dans les algorithmes de google.
  • Indirect par la prise en compte des données issus du comportement des utilisateurs, qui sont traitées à posteriori.

Vous en pensez quoi de cette relation entre expérience utilisateur et référencement naturel ?

    A propos de Serge Esteves

    Consultant SEO / Webmarketing : Techniques avancées en référencement combinées aux leviers du marketing entrant (SMO, contenu, UX, erep, ..).
    Vous souhaitez vous joindre à la discussion ?