Google sur la corrélation signalée des liens incorrects et la perte de trafic de 50%

Un éditeur a déclaré à John Mueller de Google que Google Search Console (GSC) avait signalé plus de 500 backlinks provenant de deux domaines. L’éditeur a signalé que les backlinks étaient en corrélation avec une baisse de trafic de 50%.

John Mueller de Google a commenté la corrélation entre les liens de parrainage et la baisse du trafic.

L’éditeur a rapporté que GSC montrait des backlinks de deux domaines vers chaque page de leur site.

En visitant ces pages, l’éditeur a vu qu’elles étaient vides, il n’y avait aucun contenu sur ces pages.

Ils ont déclaré que l’apparition de ces liens référents était corrélée à une baisse de 50% du trafic.

Voici ce que l’éditeur a demandé:

Au cours des dernières semaines, j’ai remarqué un nombre croissant de backlinks dans la console de recherche de deux domaines vers mon site Web à partir de ces deux domaines.

Chaque page de mon site Web est liée environ deux à trois fois, accumulant plus de 500 backlinks au cours des quatre à huit dernières semaines.

En regardant les URL d’origine dans la console de recherche, j’ai vu que ces URL d’origine de deux domaines sont des pages vides.

La page d’accueil de ces deux domaines est simplement une page vide.

PUBLICITÉ

CONTINUER À LIRE CI-DESSOUS

L’éditeur dit que l’apparition des liens coïncide avec une baisse du trafic:

Ma découverte de ce problème est en corrélation avec une baisse de 50% du trafic. Ces backlinks n’apparaissent pas dans d’autres outils de référencement, uniquement dans la console de recherche.

L’éditeur fait référence à ces liens en tant que «pages de référence».

Mais ils font probablement référence à l’outil de backlink de la console de recherche:

Étant donné que ces URL d’origine sont des pages vides, avez-vous une idée de pourquoi elles s’afficheraient dans la console de recherche en tant que pages de référence?

L’éditeur a ensuite demandé s’ils devaient désavouer:

Et est-ce un scénario où l’outil de désaveu a un sens ou Google les détecte-t-il comme non naturels et les ignorera comme signal de classement?

John Mueller de Google a commenté le mystère des pages «vides» et ce que cela pourrait être:

« Il est vraiment difficile de dire ce que vous voyez ici. Il est certainement possible qu’il existe des pages qui montrent une page vide aux utilisateurs, puis une page complète à Googlebot. « 

PUBLICITÉ

CONTINUER À LIRE CI-DESSOUS

C’est une référence à une page qui montre une page à Google et une autre page à tout le monde. Cette pratique s’appelle le camouflage.

Mueller explique que la possibilité que la page soit masquée. Il s’agit d’une explication de ce que l’éditeur pourrait voir et ne pas aborder le deuxième problème du classement.

Mueller continue de rejeter les pages de référence comme des erreurs techniques plutôt que comme une tentative malveillante de saboter le classement de l’éditeur.

Il a dit:

« De ce point de vue, je voudrais simplement ignorer ces pages. »

Il a ensuite suggéré d’inspecter les pages avec le test Google Mobile Friendly pour voir à quoi ressemble la page lorsque GoogleBot les voit. C’est un test de dissimulation, pour voir si une page montre une page à Google et une autre page aux visiteurs non Googlebot.

Mueller a ensuite commenté la corrélation entre les backlinks escrocs et la baisse de 50% du trafic:

« Je ne pense pas que ce soit quelque chose que vous devez désavouer.

Cela semble probablement bizarre dans le rapport sur les liens, mais je ne m’inquiéterais vraiment pas de cela.

En ce qui concerne la baisse du trafic que vous voyez, de mon point de vue, cela ne serait probablement pas lié à ces liens.

Il n’y a pas de situation réelle… où j’imagine que des pages essentiellement vides poseraient un problème de liens.

Je voudrais donc simplement ignorer cela.

Si vous décidez de les mettre dans le fichier de désaveu de toute façon … gardez à l’esprit que cela n’affectera pas la façon dont nous affichons les données dans la console de recherche. Le rapport sur les liens continuerait donc de les montrer.

Je ne pense pas qu’il y ait de raison d’utiliser un fichier de désaveu dans ce cas particulier. Je les laisserais donc tranquilles. »

En relation: Comment analyser la cause d’un crash de classement

Qu’est-ce que l’éditeur a vu?

Ce que l’éditeur a vu est un phénomène ancien et commun appelé spam de référence. La raison initiale du spam de parrainage était qu’au début des années 2000, certains programmes d’analyse gratuits publiaient des listes de référents sous forme de liens.

Cela a créé l’opportunité de spammer un site avec de fausses références du site de spam vers un autre site afin de créer un lien à partir de la page d’analyse publique.

Cette page d’analyse n’était liée à aucune autre page d’un site. Il existait simplement sur une URL générée automatiquement.

La plupart des sites n’ont plus ces pages d’analyse. Mais la pratique se poursuit, peut-être dans l’espoir que si suffisamment d’éditeurs cliquent sur les liens, Google le verra comme une forme de popularité qui aiderait leur classement.

L’éditeur de ce hangout était probablement en train de regarder une référence fabriquée.

Le référent n’était pas réel. Même le lien n’existait pas. C’est généralement le cas du spam référent.

PUBLICITÉ

CONTINUER À LIRE CI-DESSOUS

En relation: Comment identifier une éventuelle campagne de référencement négatif

Les backlinks étranges aléatoires nuisent-ils aux classements?

En vingt ans de création de sites Web, je n’ai jamais publié de site qui n’attirait pas de liens étranges, y compris ce que l’on appelle le spam référent.

Les liens fantômes vers mes sites qui apparaissent dans les outils de backlink n’ont eu aucun effet sur mon classement.

La raison pour laquelle le site de l’éditeur a perdu cinquante pour cent de son classement est probablement due à autre chose.

L’algorithme de recherche locale est en évolution depuis avril et Google a annoncé une large mise à jour de l’algorithme de base début mai.

Regardez le Hangout Google Webmaster: