10 faits que vous pensez savoir sur le référencement qui sont en réalité des mythes

Le référencement est réputé pour la désinformation, les malentendus et les idées fausses. Cela tient en grande partie au fait que Google est en quelque sorte une boîte noire pour tenter de limiter le jeu des SERP.

Cependant, ces derniers temps, Google a pris des mesures remarquables pour devenir plus transparent grâce à une activité accrue de la communauté SEO.

Que ce soit des Hangouts Webmasters réguliers, des conférences à des conférences ou des métaphores perspicaces sur TwitterJohn Mueller, Gary Illyes et Danny Sullivan de Google contribuent à dissiper les mythes du référencement.

Pour bannir davantage ces mythes, j'ai dressé une liste de 10 malentendus courants sur Google et le référencement et les raisons pour lesquelles ils se trompent.

Mythe 1: Google pénalise le contenu en double

La pénalité de contenu en double n'existe pas. Google ne pénalise pas les sites pour dupliquer le contenu.

Google comprend que le contenu en double fait naturellement partie du Web et vise à indexer la page de la plus haute qualité et la plus pertinente de façon à ce que les utilisateurs ne présentent pas le même contenu de manière répétée dans les résultats de recherche.

Sauf si un site tente de manipuler les classements et est entièrement constitué de contenu dupliqué, le pire des scénarios résultant de duplicata est que des pages similaires soient repliées dans l'index et qu'une version alternative de la page s'affiche.

Les professionnels du référencement peuvent fournir aux moteurs de recherche un certain nombre de signaux indiquant la page à indexer, y compris une utilisation correcte des droits canoniques, l’inclusion de sitemap et des liens internes pointant vers la page préférée.

Mythe 2: Google considère l'URL canonique comme la version préférée pour l'indexation

Ce n'est pas parce que vous définissez une URL comme version par défaut pour l'indexation via une balise canonique que cette page est celle que Google choisira pour l'indexation.

Le rel canonical est traité comme un signal par Google pour la page préférée et n’est pas toujours respecté.

Ces instances se trouvent dans la nouvelle version de Google Search Console dans le rapport Couverture d’index sous le drapeau «URL soumise non sélectionnée comme canonique».

Google peut choisir une page autre que celle que vous avez sélectionnée comme étant canonique quand ils jugent qu'une autre page d'une série de doublons est un meilleur candidat à afficher pour la recherche.

Dans de tels cas, il serait conseillé de déterminer si la page canonique que vous avez sélectionnée est réellement celle que vous souhaitez indexer. Si tel est le cas, vous devrez examiner les signaux décrits précédemment (plans de site, liens internes, etc.) pour vérifier qu'ils pointent vers votre version préférée.

La clé est de vous assurer que vous envoyez à Google des signaux cohérents quant à la version préférée de la page.

Mythe 3: la qualité des mises à jour entraîne des pénalités algorithmiques

Dans une récente interview, Fili Wiese, ancien ingénieur chez Google, a évoqué le mythe des sanctions algorithmiques:

«Une idée fausse qui existe souvent concerne des choses comme Google Panda ou Phantom, comme l’appelle l’industrie, ou Fred. Mises à jour de la qualité essentiellement. Mais les gens pensent que ce sont des pénalités ou des pénalités algorithmiques (quand ce n’est pas le cas).

Le problème, c’est qu’il n’existe pas de pénalité algorithmique, c’est en fait un recalcul. C’est comme une grosse boîte noire avec la formule à l’intérieur, vous insérez quelque chose, quelque chose sort, et ce qui sort est le classement et ce qui entre, c’est votre site Web.

Les modifications apportées à l'algorithme sont fondamentalement des modifications dans la boîte noire, ce qui signifie que ce qui sort de l'autre côté est légèrement différent maintenant. Cela signifie-t-il que vous avez été pénalisé? Non, cela peut sembler être le cas, mais vous n’êtes pas pénalisé. "

Wiese soulève une différence subtile, mais importante pour comprendre le fonctionnement des algorithmes de recherche de Google.

Mythe 4: Google a 3 facteurs de classement

En mars 2016, Andrei Lipattsev a annoncé que les liens, le contenu et RankBrain figuraient parmi les trois principaux facteurs de classement de Google.

Cependant, Mueller a depuis lors rejeté cette affirmation dans un Hangar pour les webmasters, déclarant qu’il n’était pas possible de déterminer les facteurs de classement les plus importants, car ils variaient d’une requête à l’autre et au jour le jour.

Il n’est pas utile de se concentrer sur les signaux de classement individuels car les algorithmes des moteurs de recherche sont trop sophistiqués pour que cela soit un moyen utile de conceptualiser les algorithmes.

Les professionnels du référencement devraient plutôt se concentrer sur l'optimisation de leurs sites afin d'améliorer l'expérience utilisateur, de faire correspondre les intentions de l'utilisateur et, plus largement, d'améliorer la qualité de son site tout en se tenant au courant des derniers développements de Google.

Mythe 5: le bac à sable de Google applique un filtre lors de l'indexation de nouveaux sites

Une autre idée fausse est que Google traite les nouveaux sites de l'index. Certains pensent depuis longtemps que Google applique un filtre aux nouveaux sites Web afin d'empêcher les sites spammeurs de se classer peu de temps après leur lancement.

Mueller a mis le bac à sable Google au lit dans un Hangar pour les webmasters, lorsqu'il a déclaré qu'aucun filtre de ce type n'était appliqué à de nouveaux sites.

Il a toutefois indiqué qu'il pourrait exister un ensemble d'algorithmes ressemblant beaucoup à un bac à sable, mais qu'ils tentent de comprendre comment le site Web s'intègre bien à ceux qui tentent de se classer pour les mêmes requêtes.

Dans certains cas, cela peut signifier que les pages ont un rang supérieur ou inférieur pendant un certain temps, tandis que les algorithmes de Google déterminent leur adaptation aux pages concurrentes.

Mythe 6: utiliser le fichier Disavow pour gérer le profil de lien d’un site

L’un des piliers des responsabilités d’un SEO a toujours été d’élaguer le profil du backlink d’un site en renonçant aux liens de mauvaise qualité ou aux spams.

Au fil des ans, les algorithmes de Google ont permis de mieux comprendre ces types de backlinks de mauvaise qualité et de savoir quand ils devraient être ignorés. En conséquence, la nécessité pour les professionnels de la SEO de maintenir et de mettre à jour un fichier de désaveu a considérablement diminué.

À BrightonSEO en septembre 2017, Illyes a déclaré que si des backlinks arrivent de manière organique vers un site, il est extrêmement improbable que le site reçoive une action manuelle. Illyes a poursuivi en affirmant qu’il n’avait pas de fichier de désaveu pour son site personnel.

Désormais, il est recommandé d'utiliser le fichier de désaveu uniquement lorsqu'un site a reçu une action manuelle, afin de supprimer les liens incriminés.

Mythe 7: Backlinks Google sur les backlinks de tous les domaines de haute autorité

L'établissement de liens réussi doit être jugé par l'autorité et la pertinence des backlinks pointant vers le site cible. Néanmoins, les backlinks provenant de domaines de haute autorité sont très recherchés, quelle que soit leur pertinence pour le site cible.

Cependant, une autre idée tirée de BrightonSEO Q & A d’Illyes a révélé que Google prend en compte le contexte des backlinks, ce qui signifie que les professionnels du référencement devraient peut-être accorder plus d’importance à la pertinence des liens lorsqu’ils sont recherchés.

Illyes pense qu'il est utile de réparer les liens internes et externes, mais il est important de garder le contexte à l'esprit. Si un article de mauvaise qualité (qui n'a rien à voir avec votre site) est lié à votre site, Google l'ignorera car le contexte ne correspond pas.

Mythe 8: Google utilise la vitesse de la page comme signal de classement majeur

Depuis 2010, Google utilise la vitesse des sites comme signal de classement. Intuitivement, on pourrait penser qu’ils ont une façon intelligente de l’incorporer en tant qu’élément clé de leurs algorithmes, d’autant plus que c’est devenu un sujet aussi important en référencement.

Cependant, Mueller a expliqué que, bien qu'il soit prévu d'introduire une mise à jour de la vitesse plus tard en 2018, Google utilise uniquement la vitesse pour différencier les pages lentes des pages les plus normales. En fait, DeepCrawl (divulgation: je travaille pour DeepCrawl) a découvert que Googlebot analysera et indexera les pages dont le délai de réponse est inférieur à trois minutes.

La vitesse peut également influer indirectement sur les classements par le biais des retours d’expérience utilisateur, tels que les visiteurs qui rebondissent sur une page trop longue à charger, mais l’utilisation actuelle de la vitesse dans les algorithmes de Google est rudimentaire pour le moment.

Mythe 9: Fred était une mise à jour d'algorithme liée à la qualité de la liaison

Google met régulièrement à jour ses algorithmes de recherche à un rythme moyen de 2-3 par jour. La mise à jour de l'algorithme Fred en mars 2017 a été pensée pour être une mise à jour liée à la qualité de la liaison.

Cependant, Illyes a précisé qu’il n’existait pas de mise à jour de l’algorithme spécifique comme Panda ou Penguin – en fait, il a appelé les fluctuations de classement Fred comme une blague.

Illyes a poursuivi en affirmant que 95 à 98% de ces mises à jour en cours ne peuvent pas être prises en compte par les webmasters. Les fluctuations se produisent toujours, mais vous devez vous concentrer sur un site de haute qualité avec beaucoup de personnes parlant de votre marque via des liens, des réseaux sociaux, etc.

Mythe 10: le budget d’exploration n’est pas un problème

Le budget d’exploration est un sujet complexe et très controversé, mais il est négligé par certains qui surestiment la capacité de Google à explorer toutes les pages d’un site donné.

Google peut explorer simultanément toutes les pages d'un site donné pour des sites de taille petite à moyenne (jusqu'à 200 000 pages environ). Cependant, le budget d'analyse est un problème urgent pour les gestionnaires de sites d'entreprise de grande taille, car ils doivent s'assurer que les pages importantes sont analysées régulièrement.

Une façon de vérifier si Google a exploré la grande majorité de votre site consiste à vérifier si Googlebot explore 404 pages, car cela indique que la plupart des pages importantes ont déjà été explorées.

Conclusion

J'espère que ce message a permis de tuer certaines vaches sacrées de longue date du référencement. En matière de référencement, il existe des mythes et des faits. Assurez-vous de vous concentrer sur les faits et non sur les contes de fées!

Abonnez-vous à SEJ

Recevez notre lettre d'information quotidienne de la fondatrice de SEJ, Loren Baker, sur les dernières nouvelles de l'industrie!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *