Récupération à partir de novembre 2019 Google Update

Vous savez comment Google dit que vous ne pouvez pas "réparer" votre retour à la position 1? Cela semble inutile mais c’est vraiment utile. Cela aide à comprendre sur quoi ne pas perdre de temps. À mon avis, sur la base de mon expérience, une fois que vous savez sur quoi ne pas vous concentrer, cela vous aidera à comprendre les domaines plus productifs sur lesquels vous concentrer.

Choses à réparer

Selon Google, résoudre les problèmes ne vous aidera pas à récupérer. Qu'est-ce que ça veut dire?

Cela signifie peut-être que les éléments traditionnels sur lesquels se concentrent les référenceurs, principalement les référenceurs techniques, ont peu à voir avec la correction d’une mise à jour très susceptible de pertinence.

Certains référenceurs affirment que chaque site audité ayant connu une baisse de classement pose de sérieux problèmes de référencement technique.

Eh bien, cette déclaration a moins d’impact si l’on tient compte du fait que la plupart des sites ont des difficultés techniques, notamment en ce qui concerne le débit de pages. Saviez-vous que la vitesse de la page ralentit?

Si vous consultez les sites les mieux classés, ils ne vont probablement pas très bien avec des facteurs techniques de référencement qui se classent néanmoins parmi les trois premiers.

Vitesse de la page

La vitesse de la page est importante. Même John Mueller, de Google, a indiqué que la vitesse de la page est l’un des nombreux facteurs de classement, dont beaucoup sont plus importants que la vitesse de la page. En cas de doute, vérifiez la lenteur avec laquelle les sites classés en haut de classement répondent à une requête particulière.

Dans un Hangar pour les webmasters, un éditeur était frustré car son site était optimisé pour la vitesse. Mais il était dépassé par des pages Web plus lentes.

L'éditeur a demandé à John Mueller:

“Qu'en est-il de la vitesse pour la version mobile? … Pourquoi beaucoup des meilleurs sites sont-ils toujours aussi lents? ”

Et John Mueller répondit:

«… La bonne partie est que nous avons beaucoup de facteurs de classement. Donc, vous n’avez pas à faire tout ce qui est parfait.

Mais cela signifie également que vous rencontrez des situations comme celle-ci: Google dit que la vitesse est importante, mais que les sites les plus performants ici ne sont pas si rapides que cela ne doit donc pas l'être.

Donc, pour nous, c'est vraiment important. Mais cela ne veut pas dire qu’elle prime sur tout le reste. "

Cette partie sur «remplace tout le reste» est importante car, à mon avis, elle fait allusion à des éléments tels que la pertinence, les signaux de popularité et d'autres facteurs liés à la compréhension de ce que les utilisateurs veulent voir lorsqu'ils effectuent une requête de recherche.

Il n’est tout simplement pas logique de classer un site plus bas en raison de la lenteur de la vitesse si ce site est la réponse la plus pertinente pour la requête de recherche d’un utilisateur. L'objectif numéro un est de satisfaire la requête de recherche.

Le fait est que les sites mobiles ralentissent. Le graphique ci-dessous de HTTP Archive montre que la première peinture avec contenu a augmenté de 24,1% entre janvier 2019 et octobre 2019.

Toute personne qui vous dit qu'un site a perdu des classements à cause de la vitesse de ses pages, vérifiez-les en vérifiant la vitesse des pages des concurrents qui vous dépassent. Les chances sont que leur vitesse de page peut être similaire à la vôtre.

Je ne minimise pas la vitesse de la page. La vitesse de la page est très importante pour les conversions, les clics sur les annonces et la motivation des visiteurs.

Je dis simplement que, en tant que facteur de classement, la vitesse de transmission des pages a été largement surestimée.

Liens indésirables et désavoue

Chaque site classé en haut contient des liens indésirables. Google ignore les liens payants et les liens indésirables, car ce qui importe est si une page Web répond à une requête de recherche. Donc, si la page est bonne, Google classera toujours la page Web.

Oui, les liens payants peuvent dynamiser un site normal. Mais après une courte période, de quelques jours à plusieurs mois, ces liens cessent de fonctionner et le site revient à son emplacement précédent. C’est un exemple de la façon dont Google ignore les liens.

À mon avis, sur la base de l’expérience acquise en aidant les sites à récupérer des pénalités, une pénalité manuelle se produit lorsque certains seuils de différents signaux de spam sont atteints.
Par exemple, un site normal recevant des milliers de liens de texte d'ancrage optimisés pour les mots clés provenant d'autres sites normaux peut générer des drapeaux et être soumis à une révision manuelle.

Les liens textuels d'ancrage optimisés pour les mots clés provenant de sites de courrier indésirable sont ignorés par Google. Une des raisons est que la non-pertinence des liens vers la page qui est liée est une raison de ne pas compter le lien. Une autre raison est que cela correspond à la moyenne statistique pour les modèles de liaison normaux.

Les constructeurs de liens malhonnêtes profitent de cette faille depuis des années en payant pour les liens et en les pointant vers leurs clients. Ce n’est qu’après avoir atteint le seuil que les liens sont marqués et examinés. C’est probablement ainsi que JC Penney a eu des problèmes il ya huit ans.

Il est un fait que Google classe les sites qui ont des backlinks spammy. John Mueller de Google a déclaré que Google ignorerait les liens de spam si le contenu est suffisamment bon.

Ceci est la question:

«Je vois une quantité inquiétante de réseaux de liens et de schémas de construction de liens néfastes utilisés… je les ai rapportés comme suggéré, mais y a-t-il autre chose que nous puissions faire?

C'est vraiment frustrant. "

Voici la réponse de John Mueller:

«… En ce qui concerne les zones concurrentielles, nous verrons souvent que certains sites font vraiment très bien certaines choses et que certains sites font vraiment très mal.

Nous essayons de prendre la vue d'ensemble et de l'utiliser pour le classement.

Par exemple, il est possible qu'un site utilise le mot-clé de manière très terrible, mais son activité est fantastique et les gens adorent y aller. Ils adorent le trouver dans les résultats de recherche. Nous avons de très bons signaux pour ce site.

Donc, nous pourrions toujours leur montrer le numéro un, même si nous reconnaissons qu’ils font du bourrage de mots clés. "

Le fait est que Google ne va pas réduire le classement d’un site de 30% ou 90% à cause des liens. Si les internautes ont aimé le site la semaine dernière, Google va quand même le classer n ° 1 cette semaine après une mise à jour de l'algorithme.

Si votre site a subi des baisses de classement, il est très peu probable que ces baisses soient dues à des liens de spam indésirables.

Pages manquantes et réponse d'erreur 404

404 codes de réponse sont normaux.

Voici ce que John Mueller de Google a déclaré à propos de 404 pages de réponses:

“… Si nous vérifions ces URL et voyons une erreur de serveur ou l’erreur de page non trouvée ici, c’est quelque chose que nous allons vous raconter dans la console de recherche. … Et ça va. … Si nous vérifions ces URL et voyons une erreur de serveur ou l’erreur de page introuvable, nous en parlerons dans la console de recherche. … Et ça va. … Ce n’est pas un sujet de préoccupation. "

Pourquoi les sites perdent-ils des classements?

Si vous lisez et écoutez ce que dit Googler, une chose devient évidente: Google veut faire correspondre les pages Web pertinentes aux requêtes de recherche. Google a déclaré que la récente mise à jour du BERT portait sur une meilleure compréhension de 10% des requêtes de recherche en anglais. C’est une question de pertinence.

La raison pour laquelle Google a modifié l'attribut nofollow d'une directive (quelque chose que Google est obligé d'obéir) à un indice (quelque chose que Google peut ignorer si elle le souhaite) est due à sa pertinence.

Gary Illyes, de Google, a déclaré que la raison en était que Google souhaitait utiliser le signal de lien nofollow pour améliorer la pertinence.

Ma question à Gary Illyes:

"La motivation de Google pour ce changement est-elle parce que Google veut renforcer le signal du lien afin d'obtenir de meilleurs résultats de recherche?"

La réponse suivante m'a été relayée par un ami (Kenichi Suzuki) au Japon qui a demandé à Gary Illyes:

"Oui. Ils manquaient des données importantes que les liens avaient, en raison de nofollow. Ils peuvent fournir de meilleurs résultats de recherche maintenant qu'ils tiennent compte des liens rel = nofollowed. ”

Un autre exemple est la mise à jour «Medic» mal nommée de l’année dernière. Cette mise à jour a touché plus que des sites médicaux. De nombreux sites liés à la santé ont perdu leur classement. Cela semble être dû au fait que Google a décidé que les utilisateurs préféraient les pages Web basées sur la science aux pages traitant des remèdes de type «naturel» non médical.

C’est un problème de pertinence. La soi-disant mise à jour «Medic» semblait clairement traiter de questions de pertinence et non de bios de l'auteur ou de «compétences».

À emporter

Il y a eu deux changements récents chez Google qui devraient être pris en compte.

Le premier modifiait l'attribut nofollow d'une directive à un indice. Cela signifie que beaucoup plus de liens sont utilisés comme facteurs de classement. Le deuxième changement important est BERT, qui affecterait 10% des requêtes de recherche, y compris des choses comme les extraits de code. Le seul aspect des extraits de code peut expliquer certaines baisses de trafic.

Ces deux facteurs, les liens nofollow et BERT concernent la pertinence. Je ne dis pas que les liens BERT et nofollow sont la mise à jour

Il se pourrait très bien que d’autres facteurs influent sur le classement.

Pertinence et problèmes techniques

La fixation des facteurs techniques de référencement est importante. Mais identifier les problèmes de pertinence peut être encore plus important pour surmonter le déclin. Presque toutes les mises à jour lancées par Google avaient un facteur «pertinence».

Quelques mises à jour concernaient d’autres facteurs, comme la mise à jour «rapide» de Google qui ajoutait la vitesse du site en tant que facteur de classement (variable). Et quand c'était le cas, Google a averti les éditeurs. Idem avec la mise à jour Panda (contenu lié) et la mise à jour Penguin (liens associés).

En général, si Google n’en parle pas, et selon mon expérience, en aidant les sites à se rétablir, il est utile de commencer à examiner la pertinence.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *