Google vient de confirmer, par la voix de John Mueller, qu’une bonne structure de maillage interne est indispensable pour que Google comprenne bien quelles pages du site sont importantes, et quelles pages le sont moins.
John Mueller a expliqué dans la vidéo ci-dessous qu’une « structure pyramidale » était préférable à une structure « plate ». Mais que voulait-il dire par là exactement ?
Google s’appuie sur l’arborescence et la profondeur des pages pour déterminer les pages importantes
Rappelons ici que Google explore vos pages prioritairement via son crawler Googlebot. Si vos pages ne sont pas découvrables par une exploration en suivant les liens contenus sur les pages du site, il est possible de contourner le problème en utilisant un sitemap XML. Sauf que pour Google, tous les liens figurant dans un sitemap se valent. Et ceci, même si vous indiquez des valeurs dans l’attribut priority. Ce point est développé dans cet autre article :
Si Google ne tient pas compte de l’attribut priority, c’est justement parce qu’il se fie à des indicateurs issu du crawl « normal » du site pour évaluer tout seul les pages importantes. Notamment le pagerank des pages.
Le pagerank des pages profondes de votre site dépend directement de plusieurs critères :
- Le pagerank de la page d’accueil, qui en règle générale concentre le pagerank du site (c’est la page qui reçoit le plus de liens émanant de pages internes, et celle qui reçoit le plus de backlinks. C’est donc la page qui concentre le plus de Pagerank, sauf structure bizarroïde)
- La profondeur des pages : plus la page est profonde, moins elle reçoit de pagerank. Là, deux phénomènes sont à l’oeuvre : la dilution du pagerank entre les pages situées au même niveau (entre toutes les pages listings produits ou toutes les pages produits par exemple sur un site marchand). L’autre phénomène (en pratique plus négligeable) c’est que le PR transmis diminue à chaque lien. C’est l’effet du « damping factor » (« le facteur d’attenuation ») dans la formule du PR. Avec un damping factor de 13% (nota bene = on ne connait pas la vraie valeur du coefficient réellement utilisé par Google), on perd déjà 35% du PR transmis après trois saut successifs
- et d’autres éléments liés au maillage, comme le nombre de liens entrants et sortants, qui déterminent si une page accumule du Pagerank ou non.
Si votre maillage est cohérent, alors les Pageranks des pages profondes de votre site les plus importantes seront également les plus élevés.
Le problème posé par les megas menus
Donc si vous avez une structure de site « plate », avec toutes les pages liées depuis la home, ou juste sur deux niveaux, alors que vous avez des milliers de pages, il est certain que Google aura du mal à identifier les pages les plus importantes du site. Et cela nuira à votre référencement.
Bon, vous allez me dire, qui fait ça dans la pratique ?
Et bien, en réalité, des tas de gens. Sans le savoir. Et c’est la faute aux mégas menus.
Il arrive fréquemment, sur les sites e-commerce ou sur les gros sites éditoriaux, que les éditeurs ajoutent un menu contenant tous les liens vers les catégories, les sous catégories, les sous sous catégories… La solution du « mega menu » est le plus souvent choisie pour des raisons ergonomiques (même si l’apport à l’ergonomie est parfois critiquable, notamment sur un usage smartphone).
La présence de ce mega menu sur toutes les pages du site contribue à aplatir la structure du site, puisque la plupart des pages deviennent accessibles en un clic, ou deux par un bot de moteur de recherche.
Ces méga menus empêchent également toute « siloisation » du site dans le cas où le site aborde plusieurs thématiques ou univers produit.
Un mega menu masqué aux bots des moteurs de recherche ?
Comme il est souvent difficile de faire renoncer aux équipes marketing à leur mega menu, la solution couramment adoptée est de masquer partiellement les liens du mega menu aux bots des moteurs de recherche.
Certaines solutions sont à considérer avec prudence, notamment celles à base d’obfuscation en javascript. Depuis que Googlebot sait exécuter du Javascript (ce qui a commencé il y’a dix ans ! Mais on est passé d’un support partiel à un support complet à 95% aujourd’hui) certaines méthodes d’obfuscation ne marchent plus. Donc testez bien ces solutions avant de les adapter.
D’autres fonctionnent parfaitement :
- le chargement des menus profonds en ajax. Google ignore ce qui est généré en ajax, sauf si vous fournissez des urls en hashbang ( avec #! avant la query string)
- le chargement en javascript, mais de contenus stockés dans des répertoires bloqués par le robots.txt (fichiers js et fichiers Json)
Conclusion : si votre site a beaucoup de pages, montrez une arborescence pyramidale, et un maillage qui aux yeux de Google donnera de l’importance aux pages importantes !