Les algorithmes de Google ne sont pas des sanctions Google

L'industrie du référencement fait souvent référence aux «sanctions algorithmiques de Google» comme une phrase fourre-tout pour les sites Web qui ne répondent pas aux attentes de Google Search. Cependant, le terme utilisé est fondamentalement faux car il n’existe aucune sanction algorithmique de Google. Il existe bien sûr des sanctions Google, que Google appelle officiellement et par euphémisme Actions de spam manuelles. Et il existe des algorithmes Google et des mises à jour d'algorithmes. Ils peuvent et déterminent le classement des sites Web. Cependant, il est essentiel de comprendre que ce sont des choses complètement différentes avant de pouvoir être influencées de manière significative.

Les algorithmes sont des (re-) calculs

Google s'appuie dans une large mesure sur ses algorithmes. En ce qui concerne le référencement, très peu de ces algorithmes sont officiellement confirmés par Google. Google Panda, axé sur la qualité du contenu sur la page et Google Penguin, conçu pour tenir compte des signaux hors page, sont probablement les deux algorithmes les plus cités et les plus redoutés. Bien qu’il existe quelques algorithmes nommés ou mises à jour d’algorithmes existants, il est important que ce soient les quelques instances nommées comparées aux innombrables algorithmes utilisés à tout moment et à des centaines de mises à jour publiées tout au long de l’année. En fait, il y a en moyenne plusieurs versions, majeure ou mineure, chaque jour. L'industrie du référencement, sans parler du grand public, prend rarement connaissance de ces changements. Le processus de publication est naturellement un secret Google très gardé. Bien que les nouveaux algorithmes soient rarement parfaits dès le départ, ils évoluent. Cependant, les référenceurs et les spécialistes du marketing doivent savoir que les algorithmes, de par leur définition même, ne permettent pas les exceptions. Google a toujours nié l'existence de listes blanches ou noires de toutes sortes et pour une bonne raison. Ils n'existent tout simplement pas.

Penguin et Panda ne sont que deux des plus infâmes parmi d'innombrables algorithmes de Google.

Les algorithmes affectent les sites Web lorsque leurs signaux sur et hors page atteignent certains seuils. Qui ne sont ni des valeurs statiques ni des informations du domaine public. C’est pourquoi, à moins de corréler certains événements, tels que les mises à jour officiellement confirmées à des baisses soudaines du classement de sites Web, il n’est pas possible de confirmer de manière concluante avec 100% de certitude qu’un site particulier a été ou n’a pas été affecté par un algorithme spécifique ou par un ensemble. Contrairement aux pénalités manuelles, Google ne divulgue pas quand un site Web est affecté par des algorithmes, ni comment. Cela ne veut pas dire que l'impact d'un algorithme ne peut pas être influencé de manière souhaitable. Ils peuvent absolument! Des données d'analyse récentes, précises et substantielles, à la fois sur page et hors page, sont nécessaires pour comprendre et évaluer les signaux captés par Google. Cet objectif ne peut être atteint que lors d'un audit de site. Il est préférable d’appliquer divers outils et sources de données, y compris les informations que Google partage via la console de recherche Google. Dans le meilleur des cas, les journaux du serveur couvrant une période étendue et récente sont également utilisés pour vérifier les constatations. Cette dernière étape est également importante pour répondre à une question cruciale: combien de temps faudra-t-il à Google pour capter les nouveaux signaux améliorés avant que le classement d'un site ne s'améliore à nouveau? Cette question centrale ne peut être résolue qu'individuellement pour un site Web donné et dépend principalement de la fréquence et du degré de détail de l'exploration et de l'indexation d'un site. Les petits sites et les sites qui gèrent activement leur budget d'analyse ont tendance à en bénéficier plus rapidement. Les sites Web volumineux et encombrants, qui comportent de nombreux signaux de priorisation de l'analyse des déchets dans le budget d'analyse, peuvent prendre des mois, voire des années, avant d'être rediffusés.

Une mise à jour de l'algorithme et / ou une pénalité manuelle peuvent entraîner une baisse soudaine de la visibilité de la recherche.

Quand les algorithmes échouent

Idéalement, les algorithmes de Google devraient détecter et filtrer 100% des violations de Google Webmaster Guidelines. Mais ils ne le font pas. La recherche est un sujet complexe et personne n’a été en mesure de proposer un algorithme capable de suivre l’ingéniosité humaine. Malgré les efforts considérables déployés pour lutter contre le spam par des algorithmes, les sites parviennent toujours à contourner les règles et à contourner les règles – du point de vue de Google – pour devancer leurs concurrents. C’est la principale raison des sanctions Google, également appelée Actions manuelles du spam. Grâce à ces interventions manuelles et aux rapports occasionnels sur le fonctionnement de la Webspam, Google contrôle les sites de spam depuis de nombreuses années.

Les sites sont pénalisés par Google pour plusieurs raisons. Le Guide ultime de Google sur les pénalités explique le problème en détail. Lorsqu'on compare les pénalités manuelles aux algorithmes, ils peuvent sembler avoir un impact similaire. Cependant, il existe plusieurs différences importantes du point de vue du référencement. Pour commencer, les pénalités manuelles déclenchent un message dans GSC soulignant le problème détecté. Non seulement Google fournit des informations transparentes sur le type de violation identifiée, mais il partage également des astuces sur la manière de résoudre le problème. En d’autres termes, il existe une certitude quant aux sanctions manuelles. Si un site Web est pénalisé, le propriétaire du site peut facilement connaître son statut actuel.

Contrairement aux algorithmes, les pénalités de Google peuvent être confirmées avec une précision de 100%.

Une autre distinction importante est que les pénalités manuelles finissent généralement par s’éteindre. Google n'a jamais révélé le temps nécessaire pour supprimer les pénalités manuelles, à l'exception des déclarations sporadiques et cryptiques selon lesquelles cela prend très, très longtemps. Les pénalités manuelles manuelles ne sont pas une proposition viable, surtout en raison de leur impact négatif sur les sites qui perdent en visibilité sur Google Search et sur les biens immobiliers SERP perdus.

Une autre différence en comparant l'impact des algorithmes réside dans le fait que, contrairement aux algorithmes, les pénalités imposées par Google n'ont pas besoin d'attendre que le site soit redéfini avant que le classement ne puisse à nouveau être amélioré. Au lieu de cela, le propriétaire du site peut demander spécifiquement à Google de lever la pénalité via un processus dédié de Google dans la demande de réexamen. De même, pour ne pas divulguer l'intervalle de temps spécifique d'une pénalité, Google ne fournit aucune indication concernant le temps de traitement prévu des demandes de réexamen. Il s'agit d'un processus manuel, exigeant en main-d'œuvre, qui implique que les employés de Google Search évaluent les informations soumises. L’expérience montre qu’il est tout à fait possible qu’il y ait plusieurs heures à plusieurs semaines.

De la même manière qu’enquêtant sur les signaux susceptibles de déclencher des algorithmes, le travail initial lors de la résolution de pénalités manuelles consiste à explorer le site Web, les liens retour et à rechercher ces signaux.

Algorithmes et pénalités

Il est important de savoir que les algorithmes et les pénalités peuvent simultanément affecter un site Web. Leurs signaux de déclenchement peuvent même se chevaucher. Pour la santé d’un site, la visibilité dans la recherche et, finalement, le succès commercial, algorithmes et pénalités sont des facteurs pertinents à gérer. C'est pourquoi les vérifications techniques périodiques et les examens de conformité aux directives de Google Webmaster sont indispensables. Google met occasionnellement à jour leurs consignes pour les webmasters, souvent sans beaucoup de fanfare, pour mieux refléter les réalités changeantes du Web actuel. C’est pourquoi les audits périodiques devraient faire partie du devoir de diligence d’une entreprise.

Ni algorithmes ni pénalités ne sont à craindre. Faire l'expérience d'une baisse abrupte et imprévue de la recherche peut être une occasion de faire le ménage. Une fois le choc dissipé, il est alors possible de développer à la fois les biens immobiliers SERP, la visibilité de la recherche Google et le CTR bien au-delà de ce qui était auparavant considéré comme des résultats respectables.

Les opinions exprimées dans cet article sont celles de l'auteur invité et pas nécessairement celles du moteur de recherche. Les auteurs du personnel sont listés ici.

A propos de l'auteur

Kaspar Szymanski est un membre fondateur de Search Brothers et un expert de la recherche bien connu, spécialisé dans la récupération de sites Web à l'aide de Google pénalités et dans l'aide apportée aux sites Web pour améliorer leur classement grâce à SEO Consulting. Avant de fonder SearchBrothers.com, Kaspar faisait partie de l'équipe Google Search Quality, où il était l'un des moteurs des initiatives mondiales de lutte contre le spam sur le Web. Il est l'auteur du guide ultime sur les pénalités Google et fait partie de la série Ask the SMXperts.