Vous savez comment Google dit que vous ne pouvez pas "fixer" votre chemin pour revenir à la première position? Cela semble inutile, mais c'est en fait utile. Cela aide à comprendre sur quoi ne pas perdre de temps. À mon avis, d'après mon expérience, une fois que vous savez sur quoi ne pas vous concentrer, cela vous aidera à comprendre des domaines plus productifs sur lesquels vous concentrer.
Choses à réparer
Selon Google, réparer les choses ne vous aidera pas à récupérer. Qu'est-ce que ça veut dire?
Cela peut signifier que les éléments traditionnels sur lesquels les référenceurs se concentrent, principalement le référencement technique, n'ont pas grand-chose à voir avec la correction d'une mise à jour très probable sur la pertinence.
Certains SEO disent que chaque site qu'ils auditent qui a connu des baisses de classement a de sérieux problèmes avec les facteurs techniques de SEO.
Eh bien, cette déclaration perd de son impact si l'on considère le fait que la plupart des sites sont techniquement contestés, en particulier avec la vitesse de la page. Saviez-vous que la vitesse des pages ralentit?
Si vous consultez les sites les mieux classés, ils ne se portent probablement pas bien avec les facteurs techniques de référencement, mais se classent néanmoins dans les trois premiers.
Vitesse de page
La vitesse des pages est importante. Mais même John Mueller, de Google, a indiqué que la vitesse de la page est l'un des nombreux facteurs de classement, dont beaucoup sont plus importants que la vitesse de la page. En cas de doute, vérifiez la lenteur des sites les mieux classés pour une requête particulière.
Dans un Hangout Webmaster, un éditeur était frustré parce que son site était optimisé pour la vitesse. Mais il était devancé par des pages Web plus lentes.
L'éditeur a demandé à John Mueller:
«Et la vitesse pour la version mobile? … Pourquoi la plupart des meilleurs sites sont-ils toujours aussi lents? »
Et John Mueller a répondu:
«… La bonne partie est que nous avons beaucoup de facteurs de classement. Vous n'avez donc pas à tout faire parfaitement.
Mais cela signifie également que vous rencontrez des situations comme celle-ci où vous dites, Google dit que la vitesse est importante mais les meilleurs sites ici ne sont pas si rapides, donc cela ne doit pas être important.
Donc, pour nous, c'est vraiment important. Mais cela ne signifie pas que cela l'emporte sur tout le reste. "
Cette partie sur "remplace tout le reste" est importante parce qu'à mon avis, elle fait allusion à des choses comme la pertinence, les signaux de popularité et d'autres facteurs liés à la compréhension de ce que les utilisateurs veulent voir lorsqu'ils font une requête de recherche.
Il n’est tout simplement pas logique de classer un site plus bas en raison de sa vitesse lente si ce site est la réponse la plus pertinente à la requête de recherche d’un utilisateur. L'objectif numéro un est de satisfaire la requête de recherche.
Le fait est que les sites mobiles ralentissent. Le graphique suivant de HTTP Archive montre que la première peinture contentieuse a en fait augmenté de 24,1% de janvier 2019 à octobre 2019.
Quiconque vous dit qu'un site a perdu le classement à cause de la vitesse de la page, vérifiez-le en vérifiant la vitesse de la page des concurrents qui vous surpassent. Il y a de fortes chances que la vitesse de leur page soit similaire à la vôtre.
Je ne minimise pas la vitesse des pages. La vitesse des pages est extrêmement importante pour les conversions, les clics sur les annonces et pour maintenir l'engagement des visiteurs.
Je dis simplement qu'en tant que facteur de classement, la vitesse des pages a été largement surévaluée.
Liens indésirables et désaveux
Chaque site le mieux classé a des liens indésirables. Google ignore les liens payants et les liens indésirables car l'important est qu'une page Web réponde à une requête de recherche. Donc, si la page est bonne, Google classera toujours la page Web.
Oui, les liens payants peuvent booster un site normal pour. Mais après une courte période, de quelques jours à plusieurs mois, ces liens cessent de fonctionner et le site revient à l'endroit où il était auparavant. Voilà un exemple de la façon dont Google ignore les liens.
À mon avis, sur la base de l'expérience aidant les sites à se remettre des pénalités, une pénalité manuelle se produit lorsque certains seuils de différents signaux de spam sont atteints.
Par exemple, un site normal qui reçoit des milliers de liens de texte d'ancrage optimisés par mot-clé d'autres sites normaux peut lever des drapeaux et être soumis à un examen manuel.
Les liens textuels d'ancrage hors sujet optimisés par mots clés provenant de sites de spam sont ignorés par Google. L'une des raisons est que le manque de pertinence des liens vers la page à laquelle il est lié est une raison pour ne pas compter le lien. Une autre raison est que cela correspond à la moyenne statistique pour les modèles de liaison normaux.
Les constructeurs de liens escrocs profitent de cette lacune depuis des années en payant les liens et en les pointant vers leurs clients. Ce n'est qu'après avoir atteint un seuil que les liens sont signalés et examinés. C’est probablement ainsi que JC Penney a eu des ennuis il y a huit ans.
C'est un fait que Google classe les sites qui ont des backlinks spam. John Mueller, de Google, a déclaré officiellement que Google ignorerait les liens indésirables si le contenu était suffisamment bon.
Ceci est la question:
«Je vois une quantité inquiétante de réseaux de liens et de schémas de construction de liens néfastes utilisés… Je les ai signalés comme suggéré, mais y a-t-il autre chose que nous pouvons faire?
C'est vraiment frustrant. »
Voici la réponse de John Mueller:
"… En ce qui concerne les zones concurrentielles, ce que nous voyons souvent, c'est que certains sites font très bien certaines choses et que certains sites font des choses vraiment mauvaises.
Nous essayons de prendre la photo globale et de l'utiliser pour le classement.
Par exemple, il se peut qu'un site utilise le bourrage de mots clés d'une manière vraiment terrible, mais en réalité, leur entreprise est fantastique et les gens aiment vraiment y aller, ils adorent le trouver dans la recherche et nous avons beaucoup de bons signaux pour ce site.
Nous pouvons donc toujours les montrer au numéro un, même si nous reconnaissons qu'ils font du bourrage de mots clés. "
Le fait est que Google ne va pas réduire le classement d'un site de 30% ou 90% à cause des liens. Si les gens ont adoré le site la semaine dernière, alors Google va toujours le classer n ° 1 cette semaine après une mise à jour de l'algorithme.
Si votre site a subi des baisses de classement, il est très peu probable que ces baisses soient dues à des liens de spam aléatoires.
Pages manquantes et réponse d'erreur 404
Les codes de réponse 404 sont normaux.
Voici ce que John Mueller de Google a dit à propos des 404 pages de réponse:
"… si nous vérifions ces URL et voyons une erreur de serveur ou l'erreur de page non trouvée ici, alors c'est quelque chose dont nous vous parlerons dans la Search Console. … Et ça va. … Si nous vérifions ces URL et constatons une erreur de serveur ou l'erreur de page non trouvée ici, c'est quelque chose dont nous vous parlerons dans la Search Console. … Et ça va. … Ce n'est pas quelque chose dont vous devez vous inquiéter. »
Pourquoi les sites perdent-ils des classements?
Si vous lisez et écoutez ce que dit Google, une chose devient évidente: Google veut faire correspondre les pages Web pertinentes aux requêtes de recherche. Google a déclaré que la récente mise à jour du BERT visait à mieux comprendre 10% des requêtes de recherche en anglais. C'est une question de pertinence.
La raison pour laquelle Google a changé l'attribut nofollow d'une directive (quelque chose que Google est obligé d'obéir) à un indice (quelque chose que Google peut ignorer s'il le souhaite) est due à la pertinence.
Gary Illyes de Google a déclaré que la raison en était que Google souhaitait utiliser le signal de lien nofollow pour améliorer la pertinence.
Ma question à Gary Illyes:
"La motivation de Google pour ce changement est-elle que Google souhaite renforcer le signal de lien afin d'obtenir de meilleurs résultats de recherche?"
La réponse suivante m'a été relayée via un ami (Kenichi Suzuki) au Japon qui a demandé à Gary Illyes:
"Oui. Ils manquaient de données importantes que les liens avaient, en raison de nofollow. Ils peuvent fournir de meilleurs résultats de recherche maintenant qu'ils tiennent compte des liens rel = nofollowed. »
Un autre exemple est la mise à jour «Medic» mal nommée de l’année dernière. Cette mise à jour a affecté plus que de simples sites médicaux. De nombreux sites liés à la santé ont perdu leur classement. La raison semble être que Google a décidé que les utilisateurs préféraient les pages Web à caractère scientifique plutôt que les pages sur les remèdes de type «naturel» non médical.
C’est un problème de pertinence. La soi-disant mise à jour «Medic» semblait clairement concerner les questions de pertinence, pas les biographies des auteurs ou «l'expertise».
À emporter
Il y a eu deux changements récents chez Google qui devraient être pris en compte.
Le premier consistait à changer l'attribut nofollow d'une directive en un indice. Cela signifie que de nombreux autres liens sont utilisés comme facteurs de classement. Le deuxième changement important est le BERT, qui affecterait 10% des requêtes de recherche, y compris des éléments comme les extraits de code. L'aspect des extraits en vedette peut à lui seul expliquer certaines baisses de trafic.
Ces deux facteurs, les liens nofollow et le BERT concernent la pertinence. Je ne dis pas que les liens BERT et nofollow sont la mise à jour
Il se pourrait très bien que d'autres facteurs affectent le classement.
Pertinence et problèmes techniques
La fixation des facteurs SEO techniques est importante. Mais l'identification des problèmes de pertinence peut être encore plus importante pour se remettre d'une baisse de classement. Presque chaque mise à jour que Google a déployée avait un facteur de «pertinence».
Quelques mises à jour concernaient d'autres facteurs, comme la mise à jour "vitesse" de Google qui a ajouté la vitesse du site en tant que facteur de classement (souple). Et lorsque cela a été le cas, Google a informé les éditeurs. Idem avec la mise à jour Panda (liée au contenu) et la mise à jour Penguin (liée aux liens).
En général, si Google n'en parle pas, à mon avis, d'après mon expérience dans la récupération de sites, il est utile de commencer à rechercher la pertinence.
En savoir plus sur la pertinence:
Est-ce pourquoi certains classements de contenu dans Google?