Alors que les gouvernements tentent de réprimer massivement les spammeurs de courriels via des lois comme le RGPD, certains des plus grands géants de la technologie du monde travaillent dur pour se débarrasser des courriels et des tactiques de création de liens qui se trouvent à l’extrémité négative de la courbe en cloche. Mais au lieu de réglementer avec des mesures juridiques punitives, ils réglementent via la formation de leurs algorithmes pour apprendre, adapter et améliorer la façon dont ils lisent, interprètent et agissent contre quelques-uns des spammeurs de backlinks les plus prolifiques d’Internet. En bref, les robots reçoivent plus de raisonnement que les humains en termes d’identification des pauvres sur le contenu Web ou de tactiques qui ajoutent peu pour augmenter la valeur pour les utilisateurs réels.
– Publicité –
Au fur et à mesure que les robots deviennent plus intelligents, tôt ou tard, même les meilleures stratégies de backlink, si elles sont effectuées manuellement, pourraient être plus facilement détectées par des robots Web plus intelligents et toujours en apprentissage. Il est déconseillé d’éviter complètement la création de liens manuels, mais il faut vraiment faire très attention en le faisant, pour garantir que le chemin de moindre résistance n’est pas un raccourci ombragé.
Les premiers jours de la construction de liens sont morts
Dans les premiers jours d’Internet, une prise de terre dans l’ouest sauvage était certainement en cours. À cette époque, de simples domaines de correspondance exacte (EMD) pouvaient être achetés, quelques liens de faible qualité se sont présentés et le tour est joué: vous vous situez pour les requêtes de recherche à volume élevé.
– Publicité –
En fait, dans les premiers jours, il n’y a pas eu de vérification algorithmique de la gestation du site (souvent connue sous le nom de « Google Sandbox ») qui garderait le classement des sites en sourdine pendant des mois ou plus, pour s’assurer qu’ils n’exerçaient peut-être pas de la mouche. de nuit, modèle commercial flash-in-the-pan pour la vente de produits / services louches.
Non, à cette époque, vous pouvez facilement vous classer avec une compréhension de base du référencement.
Comparez cela à aujourd’hui. Un Internet plus mature signifie des milliards de pages de contenu indexé, y compris ce nombre au Nième montant de backlinks légitimes. En fait, on estime qu’environ 4,4 millions d’articles de blog sont publiés quotidiennement.
Un Internet plus établi signifie également que certains sites Web ont des profils de backlink vieux de plusieurs décennies, y compris un nombre incroyable de liens unidirectionnels pertinents. Ces formes de signaux sont incroyablement fortes pour localiser les araignées du moteur, permettant aux gros d’avoir plus gros et aux petits de stagner sans beaucoup de bruit.
C’est une des raisons pour lesquelles, en matière de marketing de sites Web dans des secteurs concurrentiels, les startups sont en perpétuel jeu de rattrapage avec des concurrents plus grands et plus aguerris. C’est un minimum d’une des raisons pour lesquelles les startups devraient chercher à se différencier, pas à révolutionner le monde.
Il y a environ dix ans, les startups avaient plus de chances de concurrencer en créant du contenu de faible qualité à partir de roues de liens, de fermes de liens, de réseaux de blogs privés, de liens à l’échelle du site, de répertoires Web et d’autres outils pour la génération automatique de liens.
Heureusement pour les utilisateurs, les algorithmes d’aujourd’hui obtiennent de meilleurs résultats pour déjouer le spam.
Comment les moteurs de recherche interprètent le spam de lien
Il y a un an, nous avons rencontré des blocages algorithmiques sur les e-mails qui avaient été incorrectement causés par le spam. L’expérience n’est pas seulement une grande étude sur la façon dont les sites Web légitimes peuvent également mal tourner, mais également sur la façon dont les algorithmes sont désormais créés avec leurs freins et contrepoids particuliers pour éliminer les mauvais acteurs.
Dans ce cas, nous avions établi de nouveaux e-mails sous un tout nouveau nom de domaine, mais ces e-mails étaient montés sur une entreprise établie, de nombreux comptes liés à des séquences d’e-mails existantes pour le marketing. Ces séquences étaient habituées à envoyer plus de 200 courriels chaque jour à partir de chaînes de marketing automatisées.
Cependant, en raison de la nouveauté des comptes, plus de 50 e-mails ont commencé à provoquer une accélération automatique du serveur. Cela a commencé à se produire tous les jours jusqu’à ce que le compte soit considéré comme correctement assaisonné, ce qui représente un outil mensuel. Dans l’intervalle, même les gens du support ne pouvaient pas nous aider à nous éloigner de ce qui était contenu manuellement dans l’algorithme.
Les machines avaient interprété le compte comme 100% nouveau, supposons que, en tant que nouveau compte professionnel, il ne serait peut-être pas normal d’envoyer un plus grand nombre d’e-mails instantanément. On nous a dit que c’était absolument l’une des nombreuses couches à sécurité intégrée contenues dans l’algorithme de messagerie, afin d’empêcher les spams à grande échelle.
Tout comme les blocs de spam automatisés par e-mail, l’automatisation de la façon dont les algorithmes des moteurs de recherche interprètent le spam est très similaire. Les algorithmes recherchent des modèles inhérents et communs à ceux qui créent des liens de manière spammeuse. En voici seulement quelques-uns.
Vitesse de liaison – À quelle vitesse les liens sont-ils acquis? Est-ce que des quantités massives de liens similaires sont dirigées vers des pages spécifiques à un moment donné, la croissance dans un sens s’est-elle produite plus naturellement sur une période plus longue?
Variabilité du texte d’ancrage et de l’adresse IP – Votre site Internet utilise-t-il le même terme à plusieurs reprises pour se classer dans les moteurs de recherche pour «acheter des voitures d’occasion en ligne»? Vos liens proviennent-ils d’adresses IP différentes? Quelle est la diversité de ces adresses IP?
Variabilité des liens – Y a-t-il plus de liens de sites entrants vers des pages spécifiques ciblant des mots clés très compétitifs? Lorsqu’il s’agit de liens sortants, existe-t-il une excellente combinaison de liens internes et externes de votre site Web en question? Est-ce que chaque article en cours de rédaction comprend des liens sortants vers d’autres sites Web utilisant des termes commerciaux ou les liens naturels et pointant vers des pages sont-ils fortement liés à l’expérience utilisateur qui répondent aux requêtes des utilisateurs réels? Cela concerne également les liens à l’échelle du site, y compris ceux du pied de page ou de la barre latérale d’un blog.
Co-citation et applicabilité – Les références dans des articles spécifiques s’appliquent-elles à d’autres liens référencés dans le même article? Les sites Web dont le thème ou les affaires tournent généralement autour des voyages sont-ils soudainement liés à des sites Web parlant du CBD ou de l’assurance d’une manière qui ressemble étrangement au spam de liens?
Historique du domaine et de l’adresse IP – Le domaine appartient-il à la même personne ou entité depuis sa création? Si ce n’est peut-être pas le cas, lorsque le changement s’est produit, y a-t-il eu un changement simultané du thème, du contenu et du secteur industriel du site lui-même? Y a-t-il eu un changement majeur dans la fréquence d’affichage de votre site Web? Le type de liens sortants semblait-il très varié?
Redirige – À moins qu’une organisation ne procède à une refonte complète, les liens qui étaient auparavant classés sur un seul site ne doivent pas être régulièrement acheminés vers un autre site pour transmettre l’équité des liens. Si des redirections se produisent, il est plus naturel qu’elles se produisent sur tout le site.
Extension TLD – Certaines extensions TLD sont beaucoup plus fréquemment utilisées pour créer du spam. Les extensions de domaine de premier niveau comme .info, .biz et aussi .co sont désormais néfastes à cause de cela.
Légitimité du site – Les sites Internet illégitimes excluent généralement des éléments tels que les comptes sociaux avec des abonnés légitimes. En revanche, les liens de vrais sites Web
Dans tous les domaines de la liste ci-dessus, les algorithmes de robot parviennent à mieux comprendre le réel à partir du faux. Ils sont de mieux en mieux à la recherche de modèles dans ce qui constitue un backlink de spam. Dans les cas où une quantité révélatrice de violations se produit à partir de certains des éléments ci-dessus, les bots peuvent déclencher un examen manuel qui pourrait compromettre le temps que vous avez passé à développer votre OPTIMISATION DE MOTEUR DE RECHERCHE.
L’abus de référencement négatif
Il y a dix ans, une stratégie appelée «Google Bowling» a été mise en œuvre efficacement par les concurrents qui cherchaient à classer les sites Web plus haut qu’eux dans les SERP. Ce faisant, les concurrents pourraient embaucher des entrepreneurs bon marché sur des sites comme Fiverr pour avoir un impact rapide sur le profil de lien Web de pages spécifiques sur un site Web en utilisant des sites de spam et des liens manipulés en utilisant des phrases que seuls les spammeurs peuvent éventuellement utiliser.
Heureusement pour de nombreuses entreprises légitimes, les algorithmes peuvent presque tout faire pour ignorer complètement les liens d’attaques odieuses similaires à celle-ci.
Bien que de telles attaques soient évidentes, se concentrer sur la façon dont elles se produisent et sur la façon dont la construction de liens se produit sont identiques. Si vous trouvez un corps manipulant son profil, il sera probablement plus facile de les utiliser comme étude de cas particulière afin de trouver le schéma qui peut aider à repérer d’autres personnes faisant la même chose.
Trouvez le modèle et vous pouvez trouver les contrevenants.
À quoi ressemble l’avenir pour les constructeurs de liens anti-spam
Les composants humains et manuels du SEO disparaissent rapidement. Oui, les humains maîtrisent actuellement les bots qui prennent les décisions et les humains créent le contenu qui est consommé, mais quels sont les résultats lorsque l’algorithme devient suffisamment intelligent s’ils savent que les liens qu’ils voient semblent manipulateurs, contre nature ou en bas à droite ombragée?
Plus important encore, à mesure que les algorithmes de recherche s’améliorent, ils continuent de réduire l’exposition des signaux basés sur des liens hypertextes en général, en optant alternativement pour le temps de séjour de l’utilisateur, les taux de rebond et les commentaires directs des utilisateurs. Par conséquent, même ceux qui respectent les principes en matière de création de liens manuels peuvent également être plus susceptibles d’être rétrogradés par rapport aux concurrents si l’expérience du consommateur n’est tout simplement pas au moins au pair.
Nate Nead
Nate Nead pourrait être le PDG de SEO.co/; une société de référencement à service complet et DEV.co/; une entreprise de développement de logiciels Web et informatiques personnalisés. Pendant plus d’une décennie, Nate avait fourni une assistance stratégique avec des solutions technologiques et marketing pour certaines des marques très connues sur le Web. Lui et son équipe conseillent les clients Fortune 500 et SMB sur les logiciels, le développement et le marketing de site Web. Nate et son équipe sont situés à Seattle, Washington et West Palm Beach, Floride.