Les bonnes pratiques SEO selon Google Leaks 

Le 5 mai dernier, près de 2500 pages de documentation interne, censées révéler les “secrets” de l’algorithme Google Search fuitaient. 

La découverte a fait couler beaucoup d’encre dans le monde du SEO.

Que s’est-il passé ? Qu’est-ce que ça implique ? Le SEO en sort-il vraiment chamboulé ? Le point sur le (non) évènement.

Google Leaks : les faits

Rand Fishkin, co-fondateur de Moz et de SparkToro a reçu un email d’un émetteur anonyme contenant des documents et informations internes clés de Google. Les documents en question représentent environ 2500 pages révélant près de 14 000 fonctionnalités utilisées par Google dans son classement.

D’où viennent ces infos ?

Les données proviennent du “Content API Warehouse”, d’où elles auraient fuitées suite à une erreur de dépôt de code.

La source a finalement révélé son identité : Erfan Azimi, expert SEO et CEO de Eagle Digital, souhaitait révéler au monde les mensonges de Google..

Rand Fishkin a demandé à Mike King, fondateur d’iPullRank et personnalité phare du SEO, d’examiner ces documents. Ce dernier a affirmé qu’ils apportent de nouveaux éléments en plus de confirmer des pratiques existantes. 

Google, de son côté, aurait reconnu à mots couverts qu’il s’agirait bien de fuites. 

Quelles informations trouve-t-on dans ces documents ?

Les données révèlent des informations techniques sur les critères de classement Google Search, sur l’écosystème de plateformes Google et sur des services internes. Elles apportent une connaissance plus approfondie des mécanismes internes de Google et du fonctionnement Google Search. 

Que nous apprend Google Leaks ?

Les données concernent différentes dimensions du référencement. Ces documents révèlent ou confirment que…

L’autorité fait toujours autorité

  • Les sites disposant déjà d’une forte autorité ont plus de facilité à voir leurs pages bien classées. 
  • Les sites plus anciens qui auraient déjà fait leur preuve seraient favorisés. À l’inverse, les nouveaux sites peu qualitatifs feraient l’objet d’un “sandboxing”. Ils se trouveraient en quelque sorte facilement mis “en quarantaine” dès lors qu’il ne semblerait pas assez fiable à Google.  

La qualité du trafic et la diversité des clics comptent

  • Les clics et les interactions utilisateurs influencent le classement (notamment via le “facteur de positionnement” Navboost, qui analyse les signaux d’engagement des utilisateurs pour améliorer la pertinence et la précision des résultats de recherche.) 
  • Les données de navigation sur Chrome semblent bien être utilisées pour évaluer le comportement utilisateur, la qualité des pages et des sites. 

Un contenu qualitatif et régulièrement optimisé est une nécessité

  • La concentration thématique d’un site est gage de qualité pour Google. 
  • Non seulement la qualité du contenu joue un rôle clé mais sa pertinence doit être entretenue.  
  • Un attribut “PageQuality” mesurerait à la fois la qualité globale et le caractère unique et original de la page.
  • La constance de la qualité des contenus dans le temps est primordiale. 
  • Le keyword stuffing serait pénalisé (mais avec quel niveau de subtilité ?) .
  • L’expertise de l’auteur serait gage de visibilité. 

La qualité des liens priment sur la quantité

  • Les liens dont l’ancre ne correspond pas au contenu de la page seraient pénalisés.
  • Seuls les liens de haute qualité seraient bénéfiques : les liens provenant de pages thématiquement pertinentes et de sites disposant d’une bonne autorité.
  • La qualité de la page d’origine et la fréquence de mise à jour de son contenu participe à la valeur des liens.
  • Les mentions compteraient comme autant de signaux utilisateurs favorables pour le classement des sites. 

Les bonnes pratiques à cultiver suite à ces révélations

Les informations révélées laissent à penser qu’il faudra toujours plus affiner SEO et SEA pour attirer du trafic vraiment qualifié, générateur d’interactions

Soigner son maillage interne et privilégier les ancres pertinentes, précises et uniques apparaît de plus belle comme une nécessité pour faire circuler le jus SEO. Ces documents rappellent également qu’il faut privilégier les liens internes depuis les pages disposant déjà de trafic et de liens de qualité. 

Partager les contenus de différentes façons et sur différentes plateformes pour susciter les mentions semble officiellement bon pour le classement, tout comme le fait de favoriser la visibilité et les clics dans tout l’écosystème Google. On ne sait pas cependant si cela concerne l’Europe dans la même proportion, le DMA visant, en théorie, une certaine indépendance et étanchéité des différents services Google. 

Beaucoup de bruit pour rien ?

On a parlé de “Google Leaks” en accusant Google de mensonges et de rétention d’informations. Un certain nombre de déclarations de Google auraient été contredites par ces révélations…Mais la plupart de celles qui nous parviennent n’ont rien de surprenant. 

Les fuites de documents semblent surtout avoir confirmé ce que les experts savaient déjà ou soupçonnaient. 

Erfan Azimi voulait révéler les mensonges de Google. Au-delà du buzz, il est loin d’avoir réussi son coup. Pourquoi une entreprise comme Google devrait-elle dévoiler ses secrets de fabrication ? On a beau connaître les ingrédients du Nutella, la recette reste bien gardée. 

Sources : 
https://universem.com/fr-be/blog/google-leaks/
https://searchengineland.com/google-responds-to-leak-documentation-lacks-context-442705
https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/#:~:text=creation%20of%20the-,Chrome%20browser,-
https://www.blindfiveyearold.com/is-click-through-rate-a-ranking-signal