Il semble que les liens ne classent pas les sites de la même manière que par le passé. Un bon lot de liens ne garantit plus que vous allez classer une phrase. Il est également possible que d’autres facteurs de classement atténuent l’influence des liens. Ce qui suit représente mon opinion. N'hésitez pas à être en désaccord.
J'ai l'impression depuis plusieurs années que nous nous trouvons dans un environnement de recherche dans lequel l'influence des liens a été réduite. Les liens sont toujours importants, mais le contenu a, selon moi, acquis une influence croissante dans quels rangs.
Première barrière aux SERPs: l'algorithme de base
Une question régulière sur les groupes Black Hat concerne le Pop and Drop. Pop and Drop, c’est quand un site acquiert un ensemble de liens et qu’ils apparaissent dans les SERP uniquement pour être ensuite déposés. Les liens ont été dévalués. Je pense que c’est l’algorithme Penguin qui fonctionne en temps réel dans le cadre de l’algorithme de base.
Quand je dis en temps réel, je ne parle pas en temps réel. Il existe un décalage entre l’indexation du Web et le recalcul des valeurs entre différents SERP. C'est ce que Google appelle le temps réel.
Deuxième barrière aux SERPs: analyse de contenu
Bing est cool parce qu'il repose sur le contenu plus que sur les liens. Les liens jouent un rôle, mais à mon avis, le rôle se limite à vérifier si un site fait autorité, est utile et fiable. C'est un point important.
Fiabilité et liens
C’est ce qui reste lorsque vous nettoyez le signal de lien du spamming avec le texte d'ancrage, un signal qui indique la fiabilité.
Dans quelle mesure Google devrait-il donner du poids au texte d'ancrage? Il est prouvé que Google pourrait utiliser le texte qui entoure le texte d'ancrage de la manière dont Google utilisait le texte d'ancrage.
Les référenceurs n'hésitent pas à critiquer Bing mais restent silencieux lorsqu'il s'agit de savoir comment se classer sur Bing. La raison en est que Bing s'est concentré sur la compréhension du contenu et des préférences des utilisateurs, tandis que le référencement s'est concentré sur les stratégies de création de liens et de mots clés par défaut pour Google. Mais ces stratégies par cœur ne fonctionnent plus. Google a augmenté la puissance de classement des signaux de page et des préférences des utilisateurs. Comme Bing.
Comment faut-il aborder le renforcement des liens?
À mon avis, la solution pour la création de liens devrait être de prouver la fiabilité et de s’assurer que la machine comprend le créneau de nos pages Web. Pour communiquer sur la fiabilité, il faut être scrupuleux sur les sites vers lesquels vous obtenez des liens, mais aussi, faire très attention sur les sites vers lesquels vous créez des liens.
Pour la création de liens, j'estime qu'il peut être encore plus important maintenant que la page sur laquelle votre lien se trouve contient un contenu pertinent. Assurez-vous également que les liens sortants sont également pertinents. Pas seulement à partir de cette page Web, mais à partir de l'ensemble du site. À quoi sert un lien depuis une bonne page si toutes les autres pages sont liées à des sites de qualité médiocre? Un site comme celui-ci aura la capacité de passer PageRank enlevé. Voici comment fonctionne le graphe de liens réduit.
Google peut-il identifier les liens payants?
Si je devais spéculer, je dirais que Google pourrait utiliser les liens sortants comme facteur majeur d’identification des liens payants. Pas seulement à partir d'une seule page mais à partir de l'ensemble du site.
Les sites Web d'actualités qui publient des articles de contributeurs qui vendent des liens sous la table renvoient à une catégorie de sites qui placent ces sites d'actualités dans des cercles de liens négatifs.
À mon avis, cela se traduit par des liens qui ne passent pas le PageRank.
Il existe divers algorithmes qui démontrent que reclassifier les sites comme étant du courrier indésirable sur la base de modèles de création de liens croissants fonctionne. Certains d'entre eux sont des algorithmes de type de confiance, des algorithmes anti-confiance et des algorithmes anti-confiance à double germination qui reclassent les sites et créent un graphique de lien réduit.
Ces types d'algorithmes, similaires à l'algorithme Penguin, empêchent la propagation du PageRank. Lire: Algorithmes de classement par distance de liaison
Liens annulés?
Il existe des situations où les classements basés sur des liens sont annulés. La raison en est ce qu'on appelle le moteur de modification. Le moteur de modification est un ensemble d'algorithmes liés à la personnalisation. La géographie et les recherches précédentes peuvent influer sur les types de sites que vous consultez.
Si la majorité des personnes effectuant une recherche avec une requête donnée proviennent d'une zone géographique spécifique, Google peut même extraire une page de la page 2 des SERP et la classer en haut du classement SI l'algorithme détermine qu'il est susceptible de satisfaire les utilisateurs de cette page. zone géographique.
TAKEAWAY # 1 – Liens pour l'inclusion
Même lorsque le moteur de modification démarre et que les facteurs de classement principaux sont mis de côté, les liens restent importants. ils ne comptent tout simplement pas pour le classement dans ce scénario. Ils comptent pour l'inclusion.
Pour rester dans les SERP, il est important de penser aux liens sortants de votre site et aux sites à partir desquels vous obtenez des liens. Pensez en termes de graphes de liens réduits, avec le non-spam à l'extérieur coincé dans leurs propres cliques et le non-spam à l'intérieur dans le graphe de liens réduit de confiance.
À mon avis, vous devez être dans le graphe de liens réduits de confiance pour rester en jeu.
TAKEAWAY # 2 – Perdez les 200 facteurs de classement
En tant que constructeur de liens, votre travail consiste à déterminer la raison exacte pour laquelle Google classe un site aux positions 1 à 3.
Ce ne sont pas toujours des liens ou du contenu sur la page. Puis mettez à jour votre stratégie pour vous conformer à cette raison. Ne pas saisir les raisons évidentes.
N'oubliez pas que le fait qu'un site ait des backlinks provenant de dizaines ou de centaines de liens de pied de page «optimisés par» ne signifie pas que ces liens alimentent ce classement.
Dans les SERP modifiés, les facteurs de classement traditionnels sont mis de côté. Donc, ces liens "alimentés par" ne sont PAS ce qui alimente ces classements.
C’est la raison pour laquelle j’estime qu’il est important de ne plus penser à plus de 200 facteurs de classement lorsqu’on essaie de diagnostiquer la raison pour laquelle certains TYPES de sites se classent parmi les trois premiers, les trois suivants, etc.
Si des facteurs de classement évidents (sur la page et hors page) n'ont pas de sens, arrêtez de les regarder et commencez à considérer le classement du point de vue du moteur de modification.
Si vous ne tenez pas compte de plus de 200 facteurs de classement de votre diagnostic, vous risquez de manquer la véritable raison pour laquelle un site est classé.
Par exemple, si vous concluez que les liens de bas de page «alimentés par» sont la raison pour laquelle un site est classé, alors que la vraie raison pourrait en réalité uniquement être l'intention de l'utilisateur inhérente au contenu, vous allez rater la véritable raison pour laquelle le site est classé.
Et avec cela, vous manquerez l’occasion de trouver un moyen de vaincre le concurrent.
Si Google préfère les sites d’une zone géographique, concentrez-vous sur l’obtention de liens à partir de sites liés à cette zone géographique, en particulier s’il s’agit du nom du site, des pages Web ou des données d’enregistrement Whois.
Mettez une page avec le nom de cette zone géographique et créez des liens et des citations sans lien à partir de sites situés dans cette zone géographique.
Parfois, Google préfère les sites éducatifs, scientifiques ou informatifs. Faites la détermination. Intégrez ensuite cette découverte à votre stratégie de création de liens.
Je pense qu’il est utile de ne plus penser à plus de 200 facteurs de classement. Je pense qu’il est de plus en plus important d’analyser la concurrence et de créer du contenu de manière à comprendre ce que les utilisateurs veulent, comme en témoigne le classement de Google.
La nouvelle réalité est que vous ne pouvez pas gagner, construire ou acheter suffisamment de liens pour faire le top des deux, trois ou cinq si la page vers laquelle vous créez des liens n’est pas du même type que la page qui se classe actuellement au sommet.
Google a-t-il gagné la guerre des liens?
Un autre problème concerne l’utilité des liens: c’est comment les liens sont comptés et non comptés.
Considérez ceci: Cela fait quelques années que toute recherche importante a été publiée sur la lutte contre les liens spammés ou la propagation de liens non spammés d’un site légitime à un autre.
La plupart des recherches effectuées aujourd'hui portent sur la compréhension du contenu et la compréhension de l'intention de l'utilisateur. C’est presque comme si la guerre des liens avait été gagnée.
Cela signifie-t-il que les moteurs de recherche vous ont battu?
Pas à mon avis. Google se concentre sur les utilisateurs. Il est logique qu'un éditeur pratique se concentre également sur ce que veulent les utilisateurs.
Les référenceurs se concentrent-ils trop sur les liens?
Les googleurs ont dit que les SEO se focalisaient trop sur les liens. J'ai tendance à être d'accord. Cette croyance dans les liens est ce qui motive le commerce dans les réseaux de blogues privés et les systèmes de liens payants.
Les liens sont importants. Mais la création du contenu qui génère ces liens est très importante. Il est tellement important de revenir aux notions de base et de comprendre ce que les utilisateurs veulent (comprendre les requêtes de recherche) et son rapport avec le contenu de la page.