Comment le SEO évolue en 2020

Chaque département de marketing numérique est en train de se démener pour répondre aux principales mises à jour algorithmiques qui ont été lancées au début de 2020. Êtes-vous au courant des dernières nouveautés?

Le 13 janvier 2020, Google a commencé à publier une mise à jour principale de janvier 2020 après un préavis d’une heure seulement. Le but des algorithmes des moteurs de recherche Google est de rechercher dans les bases de données pertinentes et de fournir des résultats aux requêtes de recherche. Ils guident Google pour trier les pages Web par classement. Les algorithmes étaient rarement mis à jour, mais le contenu spam des propriétaires de sites Web et les progrès technologiques ont rendu nécessaires des mises à jour régulières. Les analystes SEO, les spécialistes du marketing en ligne et les développeurs de contenu ont du mal à suivre et à comprendre les modèles d’algorithmes.

Olivia Hernandez, responsable marketing de Search Recon

Un certain nombre de sites Web ont été touchés par la mise à jour de base de janvier 2020. Google a informé les propriétaires de sites Web qu’ils ne devaient rien faire s’ils commençaient à perdre des classements, sauf pour avoir un “excellent contenu” sur leurs sites Web. En tant qu’un expert SEO, mais comme l’explique Olivia Hernandez de l’agence Search Recon: «Les entreprises doivent garder à l’esprit que le commentaire de Google concerne la dernière mise à jour. Cependant, une série de mises à jour constantes a été effectuée au cours des derniers mois et années – et si vous utilisez toujours des tactiques mises à jour, c’est le bon moment pour arrêter et reconsidérer votre plan de match. Il est étonnant de voir comment certains sites regagnent leur trafic lorsqu’ils effectuent les changements appropriés ».

Importance des mises à jour Google

De nombreuses petites mises à jour ne sont jamais remarquées, mais parfois Google publie des mises à jour qui ont un effet énorme sur le classement des sites Web et pénalisent les sites qui vont à l’encontre de ses politiques. Ceux-ci doivent être analysés attentivement pour comprendre les fluctuations du classement Google et du trafic organique des sites Web et pour améliorer les stratégies de référencement. Cela améliorera l’optimisation des moteurs de recherche d’un site Web.

Dernières mises à jour de l’algorithme Google

Voici les dernières mises à jour majeures de l’algorithme de Google qui peuvent aider les analystes SEO, les spécialistes du marketing en ligne et les rédacteurs de contenu à modifier leurs stratégies de référencement.

Mises à jour de l’algorithme de base large

Google a annoncé, via Twitter, une mise à jour majeure le 9 mars 2018 qu’il a appelée la mise à jour de l’algorithme Broad Core de Google.

L’objectif de la mise à jour était de fournir de meilleurs résultats de recherche et des pages d’aide sous-récompensées mais qui présentaient une grande valeur pour les utilisateurs en les encourageant à continuer de créer du contenu de qualité. Lorsque la mise à jour est arrivée, elle a automatiquement déclassé certains sites et les sites n’ont rien pu faire pour améliorer leur classement.

Mise à jour Maccabees

Les maccabées ont dérangé de nombreuses personnes en décembre 2017 car il a été conçu pour capturer des mots-clés à longue queue avec des permutations. Cela a entraîné une perte de trafic pouvant atteindre 30% pour des centaines de sites Web, car ils comportaient plusieurs pages remplies de permutations de mots clés volumineux. La plupart des sites touchés par les Maccabées étaient des sites Web affiliés, du commerce électronique, de l’immobilier et des voyages. La raison de la mise à jour était que tous les mots clés longs sont des moteurs de trafic énormes et Google voulait rendre les résultats de recherche plus pertinents.

Historique des modifications majeures de l’algorithme de Google

Les énormes mises à jour suivantes au fil des ans ont provoqué des ondes de choc car certains sites ont obtenu un bon classement tandis que d’autres non.

Panda

La mise à jour Panda de Google a été publiée en février 2011 dans le but de renvoyer des sites de meilleure qualité près du haut des résultats de recherche et de réduire le classement des sites Web dont le contenu est faible ou de mauvaise qualité. Le filtre de recherche de Panda est mis à jour assez fréquemment et les sites qui apportent les modifications requises échappent au filtre.

Panda cible le contenu plagié, le contenu léger, le contenu en double, le spam généré par l’utilisateur et le bourrage de mots clés. Il attribue des scores de qualité aux pages Web en fonction de la qualité du contenu pour classer les pages dans SERP. Pour se conformer, les propriétaires de sites Web doivent vérifier régulièrement leurs sites Web pour le contenu plagié, le contenu limité et le bourrage de mots clés à l’aide d’outils tels que Copyscape et Siteliner.

manchot

Penguin a été publié en avril 2012 dans le but de filtrer les sites Web qui utilisent des liens de spam, des liens avec du texte sur-optimisé et des liens non pertinents pour augmenter leur rang dans les SERP. Les liens indésirables sont des liens achetés ou obtenus à partir de sites dont le seul but est de vendre des liens pour améliorer le classement Google. Penguin vérifie la qualité des backlinks et des sites de rang inférieur qui ont des liens de faible qualité. Les propriétaires de sites Web peuvent se conformer en vérifiant régulièrement la qualité des backlinks et en suivant leur profil de croissance par les liens à l’aide d’outils tels que SpyGlass.

Colibri

L’importance de Hummingbird réside dans sa capacité à classer les pages de la requête complète au lieu de rechercher des termes individuels dans la requête. Même lorsqu’une requête ne contient pas de termes exacts, Hummingbird s’appuie sur l’importance des mots clés pour aider une page à bien se classer dans les SERPs. Il cible le bourrage de mots clés et le contenu de faible qualité. Les propriétaires de sites Web peuvent survivre à Hummingbird en augmentant la recherche sur les mots clés, en se concentrant sur les requêtes conceptuelles et en effectuant des recherches sur les requêtes associées, les mots concomitants et les requêtes synonymiques. La saisie semi-automatique de Google et les recherches associées à Google vous aideront.

Pigeon

Pigeon a été publié en 2014 dans le but d’améliorer le classement des annonces locales en fonction de l’emplacement de l’utilisateur. Il est lié à Google Maps et lie l’algorithme de base traditionnel à l’algorithme local. Cette mise à jour cible une mauvaise optimisation hors page et une optimisation dangereuse sur la page. Les propriétaires de sites Web doivent améliorer le référencement sur la page et hors page. Ils peuvent commencer par le référencement sur la page, puis adopter les meilleures méthodes de référencement hors page (par exemple, figurer dans les listes locales) pour se classer parmi les SERPs de Google.

Mise à jour adaptée aux mobiles

La mise à jour Google Mobile-friendly, publiée pour la première fois en avril 2015, vise à améliorer les pages adaptées aux mobiles dans les résultats de recherche mobile tout en filtrant les pages non optimisées pour les pages mobiles et non mobiles. La mise à jour cible les interfaces utilisateur-mobile médiocres et le manque d’optimisation mobile et réduit ou filtre les pages Web qui ne sont pas optimisées pour les mobiles. Les propriétaires de sites Web devraient rendre leurs pages utilisables sur mobile et réduire le temps de chargement. Le test adapté aux mobiles de Google est un bon outil à utiliser.

RankBrain

La mise à jour de RankBrain est un système d’IA d’apprentissage automatique lancé en octobre 2015 dans le but de mieux comprendre les requêtes, de traiter efficacement les résultats des moteurs de recherche et de fournir un contenu pertinent à l’utilisateur. Il cible une mauvaise interface utilisateur, des fonctionnalités non pertinentes sur la page Web et un contenu insignifiant. Les propriétaires de sites Web peuvent survivre à RankBrain en analysant la concurrence et en optimisant les pages Web pour l’exhaustivité et leur contenu pour la pertinence. Des outils tels que Spyfu et SEMRush sont utiles pour une telle analyse.

Opossum

La mise à jour Possum, publiée pour la première fois en septembre 2016, est la mise à jour la plus importante après Pigeon. Il se concentre sur le classement des pages Web pour les recherches locales. Toute entreprise proche de la requête de recherche est susceptible de se voir en haut des résultats de recherche locaux, y compris les entreprises en dehors de la zone physique de la ville. Les propriétaires de sites Web peuvent en bénéficier en augmentant leur liste de mots clés et en effectuant un suivi de classement spécifique à l’emplacement.

Fred

Fred a été publié en mars 2017. Il cible le contenu mince, de faible qualité, centré sur la publicité et riche en affiliés, c’est-à-dire les pages qui violent les directives du webmaster de Google. Si une page Web cible son audience principalement pour générer des revenus en générant du trafic, elle est susceptible de souffrir de la mise à jour de Fred. Les sites Web peuvent s’adapter à Fred en analysant le contenu via les consignes de qualité de recherche Google et en supprimant tout contenu léger. Tout site Web qui autorise les annonces doit s’assurer qu’il se trouve sur des pages avec un contenu de haute qualité et utile pour les utilisateurs.

Survie grâce à la conformité

Les mises à jour d’algorithmes sont le moyen utilisé par Google pour encourager les propriétaires de sites Web à maintenir la confiance de leur public en fournissant un contenu pertinent et utile. Ils découragent l’utilisation de ruses et de ruses pour obtenir un rang élevé sur les SERPs. Les propriétaires de sites Web qui sont sérieux au sujet des affaires doivent se conformer à un rang élevé.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *