SMX Overtime: vos questions sur les pénalités Google et leur impact sur les sites Web ont été répondues

Être un conférencier international présente un grand avantage: il est possible de discuter du référencement avec de nombreux professionnels du référencement. Au cours de nombreuses conversations que j'ai eues à SMX London, certains sujets et questions sont apparus plus fréquemment. De nombreuses personnes s'intéressent aux problèmes liés aux liens et souhaitent mieux comprendre les pénalités imposées par Google. Voici les questions posées pendant et après la présentation de Google Penalties chez SMX London, ainsi que mes recommandations basées sur sept années de travail à Google Search et de sept ans en tant que consultant technique en référencement.

Backlinks, pénalités et l'outil de désaveu

Pensez-vous que Google utilise l'outil de désaveu pour autre chose que les pénalités? Vaut-il la peine d’utiliser son temps?

Si votre site Web a déjà créé des liens ou a reçu beaucoup de liens de qualité médiocre, il vaut certainement la peine d'utiliser l'outil de désaveu pour son objectif principal: dissocier un site Web de ses risques liés aux liens retour. À moins de supprimer ou de supprimer les liens retour, méthode privilégiée mais prenant beaucoup de temps et pouvant ne pas toujours être réalisable, c’est actuellement la seule méthode permettant de limiter les risques liés aux liens retour avec les moteurs de recherche. Google garde un couvercle fermé sur toutes les utilisations alternatives des données de désaveu qu'elles continuent de recevoir. Bien qu’il n’y ait pas de confirmation officielle, il ne faut pas beaucoup d’imagination pour envisager ce qui pourrait être fait en termes d’entraînement aux algorithmes et d’apprentissage automatique avec cette énorme quantité de données cohérente si un ingénieur se concentrait sur 0,1% de modèles répétés à plusieurs reprises. désavoué globalement. Il ne s'agit bien sûr que d'une expérience de pensée, car Google n'a jamais confirmé une telle initiative.

Quel est le rapport optimal de PBN?

En supposant que ce soient des réseaux de blogs privés, nous parlons du ratio optimal pour la construction de liens est égal à zéro. Les PBN sont une violation des directives Google pour les webmasters et – plus important encore – facilement détectables. C'est pourquoi ils les utiliseront probablement pour attirer l'attention indésirable de Google et finalement entraîner une pénalité réduisant le classement des sites.

Avez-vous déjà vu un effet de l'utilisation de l'outil de désaveu?

Oui, il ne fait aucun doute que le fichier de désaveu est un outil efficace pour remédier aux pénalités de backlink et réduire les niveaux de risque liés aux backlink.

Un site peut-il être pénalisé au-delà de la récupération?

Heureusement, n'importe quel site Web peut être récupéré. Parfois, cela peut demander beaucoup d’efforts, en particulier lorsque les techniques de spam ont été utilisées de manière excessive par le passé. Mais il n'y a pas de sites Web non récupérables.

Pourquoi Google ne dit-il pas qu’ils appliquent des pénalités d’algorithme?

La raison pour laquelle Google ne met pas en évidence l'impact des algorithmes sur ce qui peut donner l'impression qu'un site est pénalisé est que ce ne sont pas des sanctions algorithmiques. Ce sont simplement des algorithmes qui sont fréquemment mis à jour et qui peuvent modifier la visibilité des recherches. S'il vous plaît lire les algorithmes vs pénalités manuelles pour plus d'informations sur les différences entre ces deux.

Qu'est-ce qui pourrait expliquer les problèmes de sécurité liés à l'injection de contenu, même si je suis sûr que mon site n'a pas été piraté?

Parlant d’expérience personnelle en modérant les forums d’aide de Google Webmaster et en travaillant pour la recherche Google, je n’ai pas vu beaucoup d’alertes de sécurité fausses. Si vous êtes confronté à un avertissement d'injection de contenu, supposez qu'il est exact, même si vous ne pouvez pas tout d'abord corroborer le problème et explorez le site Web afin de vérifier ce qui se passe. Si vous avez encore des doutes, je vous recommande de faire appel à des professionnels qui traitent quotidiennement des cas similaires.

L'action manuelle est-elle une question d'entrée ou de sortie d'index? Ou existe-t-il des cas de chute de classement sur plusieurs positions?

Les actions manuelles sont plus nuancées que cela. Seuls les pires des sites qui n'apportent aucune valeur à Internet sont supprimés des résultats de recherche. Et même ceux-ci peuvent demander avec succès une reconsidération. Les actions manuelles (ou pénalités manuelles) peuvent être appliquées à l'ensemble du site Web ou à une seule section, telle qu'un sous-domaine. Ou encore plus granulaire. En fonction du type de violation et de la gravité de la transgression, l'impact peut aller de la perte de biens immobiliers SERP à une perte dramatique de classement. Pour des informations plus spécifiques sur le sujet, veuillez consulter le Guide complet des sanctions.

À quoi ressemble une pénalité? Comment est-il mis en œuvre? Par exemple: Est-ce une liste noire ou une règle pour ne pas afficher la page dans les 10 meilleurs résultats?

Le processus spécifique de Google qui mène à une action de spam manuelle est un secret bien gardé. Ce qui est vrai, c’est qu’il s’agit d’un processus manuel avec plusieurs garanties en place.

Pouvez-vous avoir une pénalité manuelle sans préavis au SGC?

Si vous ne disposez pas d'une action de spam manuelle et d'un avis de pénalité dans votre console de recherche Google, vous n'avez pas à vous soucier de la façon de récupérer à partir d'une pénalité à ce moment-là.

La console de recherche Google fournit une transparence sur les actions de spam manuelles existantes.

Si l'un de mes sites est pénalisé, cela affecte-t-il mes autres propriétés d'une manière ou d'une autre?

Non, sauf en cas de violation des consignes de Google pour les webmasters.

Avez-vous récemment constaté un effet de désaveu des liens lorsque vous n’avez pas reçu de pénalité manuelle?

Absolument. Le webmaster a finalement pu se reposer au lieu de s'inquiéter des risques liés à ses liens.

Comment gérer les avertissements de contenu piraté qui apparaît de manière aléatoire et qui ne constitue pas vraiment du contenu piraté?

En fait, les avertissements de contenu piraté sont presque toujours exacts. Cependant, il peut être difficile de retracer la raison de leur apparition. L'analyse du site Web est une étape importante dans le nettoyage du site. En cas de doute, demandez l'aide d'un professionnel.

Qu'est-ce qui peut amener les évaluateurs de la qualité à évaluer votre profil de lien pour une pénalité manuelle?

Les évaluateurs de qualité Google sont des employés temporaires qui travaillent à distance depuis leur domicile et aident à tester les modifications proposées aux algorithmes de Google. Ils n'évaluent pas les sites Web ou leurs profils de backlink à des fins de spams Web. Ils n'appliquent pas d'actions de spam manuelles. Et ils ne sont pas au courant de toute idée concernant le fonctionnement interne de Google Search.

Lors de notre audit mensuel, devrions-nous utiliser l'outil Désavouer sur chaque lien qui semble spammé?

Les audits mensuels semblent beaucoup trop fréquents, même pour les créneaux les plus compétitifs. Les audits, y compris l'exploration d'une partie représentative du site Web, doivent avoir lieu une ou deux fois par an. La fréquence des revues de backlink dépend des niveaux de risque. Les profils de liaison en amont précédemment difficiles peuvent nécessiter un examen trimestriel. La plupart des sites Web sont bien servis avec des examens effectués tous les six à douze mois. Dans tous les cas, les liens spammés nouvellement identifiés doivent être désavoués au niveau du domaine.

Est-ce que les liens d'affiliation vers votre site vont ajouter / réduire l'autorité? Peuvent-ils provoquer une action manuelle?

Oui, les liens d’affiliation vers votre site Web constituent souvent une responsabilité de backlink et peuvent constituer la principale cause d’une pénalité manuelle. Pour éviter tout risque, assurez-vous que les liens d'affiliation vers votre site ne transmettent aucune autorité. En cas de doute, demandez l'avis d'un professionnel pour évaluer votre configuration actuelle.

Devrais-je également utiliser le fichier désavouer pour éviter une pénalité manuelle? L'effort est énorme pour passer en revue des milliers de liens mais l'effet n'est pas clair.

Cela dépend des niveaux de risque qui sont propres à chaque site. Les sites au passé coloré qui étaient auparavant des maillons sont susceptibles d’attirer des liens indésirables même après l’arrêt de leurs efforts. Très probablement, la réponse est «oui», mais cela ne doit pas forcément être un effort énorme et exigeant en ressources. Au lieu de cela, les examens et mises à jour périodiques ont tendance à être suffisants pour atténuer les risques liés aux liaisons retour.

Si un concurrent achète des liens de spam vers ma propriété, puis me signale, Google at-il un moyen de savoir que je ne devrais pas être pénalisé?

On appelle cela SEO négatif et Google peut ou non comprendre le contexte des liens en question. C'est exactement l'une des situations pour lesquelles l'outil de désaveu peut être utilisé, et permet au webmaster de garder le contrôle de son propre profil de backlink.

Le désaveu est-il utilisé pour l'évaluation algorithmique ou uniquement manuel?

Tous les fichiers de désaveu du propriétaire du site Web téléchargés aident les moteurs de recherche à identifier les liens à ignorer du point de vue de l'autorité. Les moteurs de recherche tels que Google peuvent ensuite choisir de l'utiliser dans leurs calculs algorithmiques pour déterminer la visibilité des recherches sur un site Web. D'autre part, si un site Web est pénalisé, l'outil de désaveu peut être l'un des outils utilisés pour récupérer de la pénalité.

Un site Web peut-il être pénalisé à cause de pages avec un contenu très court ou de pages avec un contenu en double?

Oui c'est possible. Demandez-vous si la page ajoute suffisamment de valeur ou de contenu original et convaincant. Je recommande la lecture de La proposition de vente unique: un élément clé du succès du référencement pour en savoir plus sur ce sujet.

La demande de désaveu entraîne-t-elle un examen manuel de la part de l’équipe qualité ou est-il automatisé?

En réalité, il soumet un fichier de désaveu, un document TXT mettant en évidence des domaines avec des liens spécifiques avec lesquels on souhaite se dissocier, et c'est un outil pour le propriétaire du site Web. Le fichier de désaveu transféré est traité automatiquement et il n’ya pas d’interaction humaine dans ce processus de la part de Google. En revanche, la demande de réexamen est une demande manuelle, au cours de laquelle le dossier, y compris la justification soumise, est examiné par un membre de l'équipe de recherche Google. Donc non, la soumission d'un fichier de désaveu n'entraîne pas une révision manuelle.

Algorithmes, exploration, indexation et console de recherche Google

Google met-il en avant le trafic via des liens? Avez-vous des données pour confirmer que le trafic via les liens est ce qui compte dans les classements?

Non, Google ne considère pas le trafic comme un lien susceptible de générer un signal de classement.

Avez-vous des conseils pour comprendre la différence entre le nombre de pages incluses dans l'index entre la console du site et la recherche «site:»?

Le site: les résultats des opérateurs, qui sont principalement utilisés par les référenceurs et à peine par les utilisateurs réguliers, ont tendance à renvoyer une estimation approximative du volume de pages explorées, indexées et potentiellement classées. Les données de couverture affichées dans la console de recherche Google sont plus précises et utiles pour le référencement. Assurez-vous d'ajouter votre site Web en tant que propriété de domaine à la console de recherche Google aux données les plus complètes.

Est-il possible de définir une notification concernant les problèmes de sécurité dans la console de recherche Google?

Il n’est pas nécessaire de définir activement les notifications pour ce type de problèmes dans Google Search Console, car Google le fait automatiquement pour l’utilisateur respectif. Outre les notifications reçues dans la présentation générale des actions de Google Search Console, Google met également en évidence le problème détecté en envoyant un courrier électronique supplémentaire à l'adresse électronique associée aux propriétaires de sites Web dans Google Search Console.

Quelle métrique est utilisée pour classer une page comme lente / moyenne / rapide (indicateur de vitesse / temps de rendu /…?) Et pensez-vous que cette métrique est également utilisée pour le classement?

Il est absolument prudent de supposer que la performance d'un site est un facteur de classement énorme et que, lorsque tous les autres facteurs sont similaires, le site Web le plus rapide présente toujours un avantage significatif. Google a publié de nombreuses études sur la vitesse et des articles de blog sur la manière d’améliorer les performances de votre site Web. Lors du test des performances de votre site Web, testez les connexions 3G des utilisateurs mobiles ou essayez Google Lighthouse (intégré à Chromium / Google Chrome).

Quels sont les éléments clés que vous recommandez de surveiller régulièrement sur la console de recherche et qui peuvent nous donner une idée de la façon dont nous nous en tirons face à nos concurrents?

La surveillance des concurrents est à la fois fastidieuse et fournit de précieuses informations la plupart du temps. Prenons par exemple, gardons un œil sur les activités de construction de liens de concurrents. Cela peut indiquer ou non que les consignes de Google pour les webmasters sont pliées ou cassées. Mais il ne fournit aucune indication sur le fichier de désaveu des concurrents et est donc fondamentalement dépourvu de sens, du point de vue du référencement.

Il semble qu’il n’y ait pas d’équipe Qualité de la recherche dans les petits pays à la recherche de mots clés pour les casinos. Est-ce qu'ils se soucient seulement de l'anglais SERP?

Pendant mon temps à Google Search, les capacités linguistiques de l’équipe étaient énormes. Bien que l'anglais soit la langue commune, tout le monde semblait parler plusieurs langues, y compris des langues moins courantes que d'autres. J'avais un collègue assis près de moi qui, parmi d'autres langues, parlait couramment le swahili. Il y a un certain mérite à la perception selon laquelle, dans certaines langues, le résultat en renvoie plus de pages douteuses, ce qui s'explique par le fait que les petites langues tendent également à consister en de petites quantités de contenu indexable de qualité.

Le CTR des extraits de code SERP est-il un facteur de classement dans Google ou non?

Oui, il s’agit de l’un des signaux de l’utilisateur et revêt donc une grande importance pour le classement. Cependant, ne vous concentrez pas uniquement sur l'optimisation du CTR de vos extraits de code en raison des signaux de classement possibles, mais plutôt sur la conversion de plus en plus d'utilisateurs de vos impressions SERP actuelles sur votre site Web.

Google associe-t-il différents domaines s’ils ont le même propriétaire enregistré?

Google a beaucoup de données disponibles et peut souvent voir assez facilement si différents domaines appartiennent au même propriétaire ou non. Cependant, posséder plusieurs domaines n'est pas un facteur de classement, ni un signal négatif.

Pouvons-nous copier une critique d’un autre site, la placer sur le site de la société et la marquer d’un schéma?

Bien que ce soit possible, cela ne sert à rien. Republier du contenu existant sans ajouter de valeur revient en gros à gratter et peut avoir un impact négatif sur les signaux de contenu d'un site.

Si les mises à jour de l’algorithme ne constituent pas des pénalités mais prennent un mauvais tournant, pourquoi Google ne partage-t-il pas la carte pour les sites affectés?

C’est une idée fausse de supposer que les algorithmes échouent. Par conséquent, un site est classé plus bas qu’il ne le mérite. Google doit donc compenser cela d’une manière ou d’une autre par le propriétaire du site. Google se soucie de ses utilisateurs de recherche Google et tant que les utilisateurs indiquent par leur comportement qu'ils sont satisfaits des mises à jour algorithmiques, il en va de même pour Google.

Quelles considérations (en dehors de la suppression des liens douteux) devons-nous prendre en compte lors de la migration d'un autre site Web vers un site existant? (par exemple, en combinant deux entreprises)

Fondamentalement, il est logique que les sites traitent du même sujet. Lors de l’intégration d’un site Web sur un autre, il est important d’établir des redirections 301 correctes et durables. Parfois, il peut être judicieux de s’assurer qu’aucun problème hérité, tel que du contenu obsolète, ne soit migré. Il est également important de garantir une liaison interne appropriée pour migrer le contenu afin d'éviter les pages orphelines. Enfin, sachez que l’intégration de deux sites différents dans un site peut «réinitialiser» votre classement, car les moteurs de recherche pourraient mettre un certain temps à comprendre ce que vous faites. Obtenez l’aide d’un professionnel du référencement avant de commencer à vous déplacer, car il existe souvent d’excellentes occasions de se débarrasser des vieux signaux susceptibles de retenir votre site Web.

Quelles sont vos pensées avec les pages AMP et leur utilisation pour classer un site?

AMP est une expérience de vitesse de site visant à améliorer l'expérience utilisateur dans certaines données démographiques, niches et / ou régions où les performances de vitesse du site posent souvent problème. En tant que tel, AMP est favorisé par Google, mais ce n'est pas un outil de classement. Il existe d'autres technologies disponibles qui offrent des expériences tout aussi rapides, voire plus rapides, tandis que le propriétaire du site Web conserve le contrôle total sur le contenu et les journaux du serveur, partiellement perdus avec AMP. Un danger supplémentaire avec AMP réside également dans le fait que le développement du site Web, au sein des équipes de développement et de gestion, passe de l'optimisation des expériences de vitesse de site rapide à la validation de AMP, ce qui ne donne pas nécessairement les meilleures décisions prises pour le contenu ou l'expérience. du site. Cela dit, le passage à l’AMP peut être un outil déterminant pour aligner tous les membres d’une organisation sur les performances des sites de budgétisation. En résumé, si AMP est une expérience de vitesse intéressante et n’est pas intrinsèquement mauvais pour un référencement de sites Web, il a certainement ses limites et dépend fortement du site Web, de son public cible, de la structure organisationnelle interne et de l'infrastructure actuelle.

Connecter GSC à l'analyse: cela peut-il nuire au référencement de votre site?

Non, ça ne peut pas.

Quelles sont les 3 principales fonctionnalités que vous souhaiteriez voir migrer dans le nouveau SC?

1. Présentation des paramètres d'URL et des données structurées au niveau de la propriété du domaine.

2. J'aimerais voir les rapports d'erreur DNS revenir dans la nouvelle console de recherche Google, car il n'existe actuellement aucun autre endroit où nous pouvons voir si Googlebot rencontre des problèmes DNS pour accéder à un site Web.

3. UX. Bien que l'ancienne interface soit claire et simple et que la nouvelle interface contienne beaucoup plus de données, ce qui manque vraiment à la nouvelle console de recherche Google par rapport à l'ancienne, c'est une bonne expérience utilisateur. Juste pour vous donner quelques exemples:

La nouvelle interface utilisateur est vraiment lente comparée à l'ancienne. Je ne peux pas cliquer avec le bouton droit de la souris pour ouvrir un résultat dans un nouvel onglet (outil d'inspection des URL, par exemple). L'ouverture de plusieurs propriétés est fastidieuse car il n'y a pas de page de présentation de toutes les propriétés ajoutées dans la nouvelle console de recherche Google. Je dois utiliser les boutons de retour pour naviguer vers les rapports précédents sélectionnés ou je me retrouve sur la page d'accueil de la section et je dois tout sélectionner à nouveau. Il est difficile de voir les filtres, lorsqu'ils sont appliqués à un ensemble d'échantillons, à cause du masque caché.

L'ancienne console de recherche était peut-être ancienne, mais au moins, elle était beaucoup plus conviviale dans la conception de base de la navigation.

Est-il judicieux d'accélérer la création de site pour Googlebot? Par exemple, mettez complètement le site en cache, car pour les utilisateurs, nous ne pouvons pas le faire pour des raisons de personnalisation.

Ayez toujours une version par défaut de votre site Web, sans la personnalisation, pour les robots et les utilisateurs. C'est la version que vous pouvez mettre en cache de manière agressive. Toute personnalisation du contenu indexable est une amélioration de la version par défaut pour les utilisateurs qui vous permettent d’améliorer leur expérience, mais votre site ne doit jamais en dépendre.

Pourquoi Google ignore parfois rel = canonique?

La raison pour laquelle les textes canoniques peuvent être ignorés est due au fait que votre site Web partage des signaux techniques de référencement contradictoires avec Googlebot, tels que le fait de mélanger des canoniques non auto-référencés avec noindex, ou de ne pas créer de lien vers les canoniques, mais avec d’autres variantes, ou d’appliquer les canoniques incorrects aux pages ( par exemple, canoniser des pages paginées sur la première page ou utiliser des chemins relatifs), ou vos textes canoniques ne correspondent pas à vos URL de sitemap, etc. Il existe de nombreuses raisons pour lesquelles Google peut ignorer vos documents canoniques et un audit technique complet en indique la raison.

J'ai un algorithme vers le bas. Puis-je contacter des personnes sur Google pour obtenir des conseils?

Non. Lors de conférences, il peut être possible de faire appel à un spécialiste, tel que John Mueller, mais il sera peu probable qu'ils fournissent une réponse concrète et sur-le-champ. Google n'offre pas de support individuel pour les webmasters. Il existe des forums d'aide Google pour les webmasters, qui constituent un canal de communication surveillé par les employés de Google qui peuvent occasionnellement engager la conversation. Vous pouvez également poser votre question lors d’une des sessions Google Webmaster Video. Ce sont les meilleures options disponibles pour atteindre Google si vous le souhaitez. Toutefois, le problème n’est probablement pas du côté de Google, mais du vôtre. La meilleure solution consiste à demander conseil à un tiers, professionnel du référencement professionnel, qui vous aidera à analyser votre site Web.

Quelle serait une raison typique pour découvert non analysé et analysé non indexé (si ce n'est pas robots.txt, statuscode, noindex, redirect, canonical related)?

La raison pour laquelle les pages de destination ne sont pas explorées, ou explorées mais non indexées est toujours le résultat de signaux SEO contradictoires. Cela peut être de nature technique, comme des canoniques, ou basé sur la qualité, comme des signaux de contenu. Habituellement, la raison de ces problèmes peut être identifiée par un audit de référencement approfondi.

Pourquoi Google ne partage-t-il pas plus de détails sur leurs mises à jour plus importantes si elles sont "éducatives"?

Google partage beaucoup de ressources éducatives par le biais de leurs nombreux canaux. Cependant, il est important de garder à l'esprit que la plupart des propriétaires de sites Web ne sont pas intéressés par les détails plus détaillés des mises à jour algorithmiques. Bien que, du point de vue du secteur du référencement, cela puisse sembler être une chose à désirer, même si Google ne s'inquiète pas du fait que les spammeurs essaient de faire de l'ingénierie inverse et du spam de leurs algorithmes, cela n'est tout simplement pas réalisable à la lumière des multiples versions et mises à jour algorithmiques qui se produisent chaque fois. seule journée.

Vous avez plus de questions?

Si vous ne trouvez pas la réponse à une question de référencement spécifique que vous recherchez ici ou si vous souhaitez simplement parler de Google Search et du référencement, vous pouvez me retrouver au prochain SMX East à New York, où je parlerai de plusieurs projets de référencement. des sujets qui me tiennent à cœur et abordent les questions de référencement, les mythes et les idées fausses. Rendez-vous en novembre 2019 à New York!

Les opinions exprimées dans cet article sont celles de l'auteur invité et pas nécessairement celles du moteur de recherche. Les auteurs du personnel sont listés ici.

A propos de l'auteur

Fili est un expert en référencement technique renommé, ancien ingénieur de Google et ancien responsable technique de l’équipe Qualité de la recherche Google. Chez SearchBrothers, il offre des services de conseil en référencement avec des audits de référencement, des ateliers de référencement et récupère avec succès des sites Web contre Google. Fili est également un conférencier fréquent à SMX et à d’autres événements de marketing en ligne.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *