Heures supplémentaires avancées de SMX: Des réponses à vos questions concernant le spam sur Internet et les pénalités

Frédéric Dubut et Fili Wiese s'exprimant au SMX Advanced à Seattle en juin. Cette session était si populaire qu'ils se réuniront à nouveau pour parler des dernières nouvelles concernant les pénalités et les algorithmes Bing et Google au SMX East de New York le 13 novembre.

Frédéric Dubut (responsable de l'équipe de spam chez Bing) et moi avons discuté ensemble lors de la toute première présentation commune de Bing et de Google à SMX Advanced de la manière dont Google et Bing agissent en matière de spams Web, de sanctions et d'algorithmes. Nous n’avions pas le temps de répondre à toutes les questions des participants au cours de la période de questions et nous avons donc voulu faire un suivi ici. Vous trouverez ci-dessous des questions soumises au cours de notre session sur les pénalités Google et Bing, ainsi que nos réponses.

Q: Est-ce que l'outil de désaveu a fonctionné pour les algo sanctions ou était-ce principalement pour l'action manuelle?
R: Les outils de désaveu de Bing et Google aident très certainement avec les actions de spam manuelles. En fait, il est crucial de résoudre les actions / sanctions de spam manuelles liées aux liens avec l'outil de désaveu. En même temps, si votre site Web a une histoire de création de liens actifs, les outils de désaveu sont également un excellent moyen de supprimer ces liens de qualité médiocre que vous ne pouvez pas supprimer et qui sont maintenant contraires au Webmaster de Google ou de Bing. Des lignes directrices. Bien que les pénalités algorithmiques n’existent pas de la part de Google, Bing et Google utiliseront les données relatives aux liens de non-divulgation comme points de données potentiels pour tester les divers algorithmes qui alimentent les classements.

Q: Vous avez des idées ou des conseils pour lutter contre les publications des utilisateurs de courrier indésirable sur les sections UGC d’un site? (critiques, forums, etc.)

R: La vigilance est essentielle pour lutter contre le spam généré par les utilisateurs et pour surveiller les communautés à des fins de protection de la marque. Il existe des moyens rapides et faciles d’examiner en masse ou de limiter les abus. Par exemple, vous pouvez utiliser des jetons CSRF ou des envois d’examen par lot en chargeant les 100 derniers articles sur une page et en les survolant pour trouver ceux qui sont abusifs, puis en passant aux 100 suivants, etc. Vous pouvez également décider de toujours examiner tous les articles avec un lien avant la publication, ou vous pouvez utiliser des outils commerciaux tels que akismet ou reCaptcha pour limiter l'activité des spammeurs. Si vous pensez ne pas pouvoir engager de ressources pour modérer vos sections UGC, vous pouvez également envisager de ne pas autoriser la publication de liens. Il est important de se rappeler qu'aucun outil ne pourra arrêter l'ingéniosité humaine. C'est pourquoi il est indispensable de consacrer des ressources, y compris une sensibilisation qualifiée aux employés, si l'on veut réduire les risques associés au spam généré par les utilisateurs.

Q: Comment pouvez-vous savoir si quelqu'un achète des liens?

R: Tout est question d'intention et de tendance. En général, il n’exige pas un examen manuel approfondi de chaque lien pour détecter un élément suspect. La plupart du temps, un simple coup d'œil sur les données du backlink suffit à éveiller les soupçons, puis un examen détaillé du profil du backlink fournit le pistolet fumant.

Q: En ce qui concerne les problèmes connus liés à l'indexation javascript, comment gérez-vous le masquage, car les principes fondamentaux de la plupart des solutions SSR et des solutions dynamiques semblent refléter ce comportement? Est-il difficile de dire méchant par rapport aux autres?

R: En fait, si nous nous concentrons sur l'intention, pourquoi une certaine solution est mise en place, c'est plutôt facile. En un mot, si quelque chose est fait pour que les moteurs de recherche puissent être trompés et que le contenu affiché par les bots diffère considérablement de celui des utilisateurs, il s'agit d'un masquage, qui constitue une violation grave des consignes de Google et de Bing Webmaster. Toutefois, si vous souhaitez éviter les risques d’être mal compris par les algorithmes des moteurs de recherche tout en offrant une meilleure expérience utilisateur avec votre site Web enrichi en Javascript, assurez-vous que votre site Web respecte les principes de l'amélioration progressive.

Q: Un site peut-il être vérifié dans GSC ou BWT lorsqu'une pénalité manuelle est appliquée?

A: définitivement. Dans le cas de Bing Webmaster Tools, si vous souhaitez déposer une demande de réexamen sans disposer d’un compte, nous vous recommandons vivement de créer un compte afin de faciliter le processus de réexamen. Dans le cas de la console de recherche Google, vous pouvez vous connecter avec votre compte Google, vérifier votre site en tant que propriété de domaine et voir si des actions manuelles sont appliquées n'importe où sur votre domaine.

Q: Existe-t-il un moyen d'aider Google à trouver un spameur de liens? Nous avons reçu des milliers de backlinks toxiques avec le texte d'ancrage «The Globe». Si vous visitez le site pour rechercher des informations de contact, ils demandent 200 000 USD pour supprimer les backlinks, ce qui nous fait passer beaucoup de temps à le désavouer.

A: Oui, absolument. Les violations des règles Google pour les webmasters, y compris le pollupostage des liens, peuvent être signalées à Google via un canal dédié: le rapport de Webspam. En outre, il existe des forums d'aide Google pour les webmasters, qui sont également contrôlés par les employés de Google Search et où le fait de les signaler à leur attention constitue une chance supplémentaire de déclencher une enquête.

Vous pouvez utiliser ce formulaire pour signaler tout problème à Bing, y compris des violations des règles Bing Webmaster.

Q: L'ouverture d'un lien dans un nouvel onglet (à l'aide de target = _blank) provoque-t-elle des problèmes / sanctions / signaux de mauvaise qualité? Est-il prudent d'utiliser cet attribut du point de vue du référencement ou tous les liens doivent-ils s'ouvrir dans l'onglet actuel?

R: Ouvrir un lien dans un nouvel onglet n'a aucun impact sur le référencement. Cependant, pensez à l'expérience que vous souhaitez offrir à vos utilisateurs lorsque vous prenez de telles décisions, car les liens qui s'ouvrent dans de nouveaux onglets peuvent parfois être perçus comme agaçants.

Q: Devrions-nous désavouer de manière proactive les sites de récupération et les autres liens à la recherche de spam que nous trouvons (qui ne font pas partie d’une campagne de création de liens Black Hat)? Est-ce que l'outil de désaveu fait quoi que ce soit au-delà de la soumission de pistes à l'équipe de spam? Ou bien ces liens sont-ils immédiatement discrédités de votre profil de lien retour une fois le fichier mis à jour?

R: Certainement, s’il s’agit d’une partie importante du profil de votre backlink sur le site Web. Les liens de courrier indésirable doivent être traités afin de limiter le risque de pénalité manuelle, d'algorithmes déclenchés ou même d'attention indésirable de l'équipe Google ou de Bing Search. L’outil de désaveu a principalement pour but d’être un outil de gestion des risques des backlinks pour vous et de vous permettre de distancer votre site web des backlinks ombragés. Toutefois, un fichier de désaveu soumis est simplement une suggestion pour Google et Bing et non une piste très fiable pour la lutte antispam active. Que les moteurs de recherche respectent le fichier de désaveu soumis ou qu’ils l’utilisent en partie ou pas du tout appartient à chaque moteur de recherche.

Q: Comment une pénalité de cloaking est-elle traitée? Au niveau de la page, dans tout le site. Peut-il être traité? Ou purement manuel?

R: Le camouflage constitue une infraction majeure pour Google et Bing, compte tenu de son intention totalement dépourvue d'ambiguïté, qui est une tromperie du moteur de recherche et de l'utilisateur. Les deux moteurs visent la dissimulation de plusieurs manières complémentaires – sur le plan de l’algorithme, avec des pénalités manuelles, ainsi que d’autres moyens d’action. La conséquence d'un cloaking trompeur sur l'agent-utilisateur est généralement le retrait complet de l'index. Google et Bing tenteront d’adopter une approche granulaire. Toutefois, si la racine d’un site Web est masquée ou si la tromperie est trop flagrante, l’action sera entreprise au niveau du domaine.

Q: Si vous recevez une pénalité manuelle sur les pages d'un sous-domaine, est-il possible que cela affecte l'ensemble du domaine? Si tel est le cas, quel impact pourrait-on attendre?

A: C'est possible en effet. L’impact exact dépend de la pénalité appliquée et de la manière dont elle altère les signaux de référencement global d’un site Web une fois que celui-ci s’est manifesté. C'est quelque chose qui doit être étudié au niveau d'un site individuel. Si vous vous retrouvez dans une situation où une pénalité est appliquée à votre site Web, votre classement sera altéré et la croissance de votre site sera limitée. La meilleure chose à faire est de demander un réexamen avec le moteur de recherche en question.

Q: Bing et Google pénalisent-ils en fonction de l'inventaire des pages en rupture de stock? Par exemple, j'ai des milliers de soft 404 sur des pages comme celles-ci. Comment suggérez-vous de mieux gérer les produits en rupture de stock sur les grands sites de commerce électronique?

R: Non, ni Google ni Bing ne pénalise les sites contenant de gros volumes de 404 pages non trouvées. En fin de compte, lorsque vous avez des doutes sur la légitimité d’une technique spécifique, demandez-vous simplement si vous ne souhaitez pas la partager avec un employé de Google ou de Bing. Si la réponse est non, alors c'est probablement quelque chose à éviter.

Le problème ici est que, avec beaucoup de soft 404, les moteurs de recherche peuvent faire confiance à votre serveur et / ou à son signal de contenu beaucoup moins. En conséquence, cela peut avoir un impact majeur sur la visibilité de votre recherche. L'un des meilleurs moyens de traiter les articles en rupture de stock consiste à utiliser des smart 404, qui offrent aux utilisateurs un moyen de toujours trouver des alternatives disponibles appropriées à l'article actuellement indisponible, tout en servant un code d'état HTTP 404 ou un noindex aux utilisateurs. et les bots semblables. Adressez-vous à un professionnel du référencement pour déterminer quelle est la meilleure stratégie pour votre site Web, car de nombreux facteurs supplémentaires (taille du site, produits disponibles et durée d'indisponibilité, par exemple) peuvent avoir un impact important sur le choix de la stratégie de référencement appropriée. .

Vous avez plus de questions?

Avez-vous d'autres questions pour nous? Vous avez de la chance car cette année, à SMX East, nous présenterons les dernières avancées en matière de pénalités et d'algorithmes Bing et Google. Assurez-vous de nous rejoindre à SMX East!

Les opinions exprimées dans cet article sont celles de l'auteur invité et pas nécessairement celles du moteur de recherche. Les auteurs du personnel sont listés ici.

A propos de l'auteur

Fili est un expert en référencement technique renommé, ancien ingénieur de Google et ancien responsable technique de l’équipe Qualité de la recherche Google. Chez SearchBrothers, il offre des services de conseil en référencement avec des audits de référencement, des ateliers de référencement et récupère avec succès des sites Web contre Google. Fili est également un conférencier fréquent à SMX et à d’autres événements de marketing en ligne.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *