Fili Wiese à SMX Advanced.
Être un conférencier international présente un grand avantage: on peut discuter du référencement avec de nombreux professionnels du référencement partageant les mêmes idées. Au cours de nombreuses conversations que j'ai eues à SMX London, certains sujets et questions reviennent plus fréquemment. De nombreuses personnes sont intéressées par les problèmes liés aux liens et souhaitent mieux comprendre les sanctions Google. Voici les questions posées pendant et après ma présentation de Google Penalty au SMX London, ainsi que mes recommandations basées sur sept ans de travail chez Google Search et sept ans de travail en tant que consultant SEO technique.
Backlinks, pénalités et outil de désaveu
Pensez-vous que Google utilise l'outil de désaveu pour autre chose que pour les sanctions? Vaut-il la peine d'utiliser du temps?
Si votre site Web a créé des liens dans le passé ou reçoit naturellement de nombreux liens de faible qualité, cela vaut vraiment la peine d'utiliser l'outil de désaveu pour son objectif principal, à savoir dissocier un site Web de ses risques de backlink. À moins de supprimer ou de ne pas suivre les backlinks, qui est la méthode préférée mais plus longue et peut ne pas toujours être faisable, c'est actuellement la seule méthode pour atténuer les risques de backlinks avec les moteurs de recherche. Google garde un couvercle fermé sur toutes les utilisations alternatives des données de désaveu qu'il continue de recevoir. Bien qu'il n'y ait pas de confirmation officielle, il ne faut pas beaucoup d'imagination pour envisager ce qui pourrait être fait en termes de formation à l'algorithme et d'apprentissage automatique avec cette énorme quantité cohérente de données si un ingénieur se concentrait sur, par exemple, 0,1% des modèles qui sont répétés désavoué à l'échelle mondiale. Ce n'est bien sûr qu'une expérience de réflexion, car Google n'a jamais confirmé une telle initiative.
Quel est le ratio PBN optimal?
En supposant qu'il s'agit de réseaux de blogs privés, nous parlons du ratio optimal à des fins de création de liens est zéro. La PBN est une violation des lignes directrices pour les webmasters de Google et – plus important encore – facilement détectable, c'est pourquoi leur utilisation est susceptible d'attirer l'attention indésirable de Google et, finalement, de déclencher une pénalité en abaissant le classement des sites.
Avez-vous déjà vu un effet de l'utilisation de l'outil de désaveu?
Oui, il ne fait aucun doute que le fichier de désaveu est un outil efficace pour réduire les pénalités liées aux backlinks et réduire les niveaux de risque liés aux backlinks.
Un site peut-il être pénalisé au-delà de la récupération?
Heureusement, tout site Web peut être récupéré. Parfois, cela peut prendre beaucoup d'efforts, en particulier lorsque les techniques de spam ont été utilisées de manière excessive dans le passé. Mais il n'y a pas de sites Web non récupérables.
Pourquoi Google ne dit-il pas quand il applique des pénalités d'algorithme?
La raison pour laquelle Google ne met pas en évidence l'impact des algorithmes sur ce qui peut sembler être un site pénalisé est qu'il ne s'agit pas de sanctions algorithmiques. Ce ne sont que des algorithmes qui sont fréquemment mis à jour et peuvent entraîner des changements dans la visibilité de la recherche. Veuillez lire les algorithmes et les pénalités manuelles pour plus d'informations sur les différences entre ces deux.
Quelle pourrait être la raison des problèmes de sécurité de l'injection de contenu même si je suis sûr que mon site n'a pas du tout été piraté?
Parlant d'expérience personnelle lors de la modération des forums d'aide de Google pour les webmasters et de la recherche Google, je n'ai pas vu de nombreuses alertes de sécurité faussement positives. Si vous êtes confronté à un avertissement d'injection de contenu, supposez qu'il est exact, même si vous ne pouvez pas initialement corroborer le problème et explorer le site Web afin de vérifier ce qui se passe. En cas de doute, je recommande de demander l'aide de professionnels qui traitent quotidiennement des cas similaires.
L'action manuelle est-elle une question d'entrée ou de sortie de l'index? Ou y a-t-il des cas de baisse de classement d'un certain nombre de postes?
Les actions manuelles sont plus nuancées que cela. Seuls les pires des sites qui n'ajoutent aucune valeur à Internet sont supprimés des résultats de recherche. Et même ceux-ci peuvent avec succès demander un réexamen. Les actions manuelles (alias pénalités manuelles) peuvent être appliquées à l'ensemble du site Web ou à une seule section, comme un sous-domaine. Ou encore plus granuleux. Selon le type de violation et la gravité de la transgression, l'impact peut aller de la perte de biens immobiliers SERP à une perte spectaculaire de classement. Pour des informations plus précises sur le sujet, veuillez lire le Guide complet sur les sanctions.
À quoi ressemble une pénalité? Comment est-il mis en œuvre? Par exemple: s'agit-il d'une liste noire ou est-ce une règle de ne pas afficher la page dans les 10 premiers résultats?
Le processus spécifique "au sein de Google qui conduit à une action manuelle de spam est un secret bien gardé. Ce qui est vrai, cependant, c'est qu'il s'agit d'un processus manuel avec plusieurs garanties en place.
Pouvez-vous avoir une pénalité manuelle sans préavis dans GSC?
Si vous ne disposez pas d'une action de spam manuelle, comme un avis de pénalité dans votre Google Search Console, vous n'avez pas à vous soucier de la manière de récupérer une pénalité à ce moment-là.
Google Search Console offre une transparence sur les actions de spam manuelles existantes.
Si l'un de mes sites reçoit une pénalité, cela affecte-t-il mes autres propriétés d'une manière ou d'une autre?
Non, sauf si elles enfreignent également les consignes aux webmasters de Google.
Avez-vous récemment constaté un effet de désaveu des liens lorsque vous n'avez pas reçu de pénalité manuelle?
Absolument Et dans cette situation, le webmaster a finalement pu obtenir une bonne nuit de sommeil au lieu de s'inquiéter de ses risques de lien.
Comment gérer les avertissements de contenu piraté avec apparaît au hasard et n'est pas vraiment du contenu piraté?
En fait, les avertissements de contenu piraté sont presque toujours exacts. Cependant, il peut être difficile de déterminer la raison de leur apparition. L'exploration du site Web est une étape importante vers le nettoyage du contenu piraté. En cas de doute, demandez l'aide d'un professionnel.
Qu'est-ce qui peut amener les évaluateurs de la qualité à évaluer votre profil de lien pour une pénalité manuelle?
Les rapporteurs de qualité Google sont des employés temporaires qui opèrent à distance depuis leur domicile et aident à tester les modifications proposées aux algorithmes Google. Ils n'évaluent pas les sites Web ou leurs profils de backlink à des fins de spam Web. Ils n'appliquent pas d'actions de spam manuelles. Et ils ne sont au courant d'aucune idée concernant le fonctionnement interne de la recherche Google.
Dans le cadre de notre audit mensuel, devrions-nous utiliser l'outil de désaveu sur chaque lien qui semble spam?
Les audits mensuels semblent beaucoup trop fréquents, même pour les niches les plus compétitives. Les audits, y compris l'exploration d'une partie représentative du site Web, devraient être effectués une ou deux fois par an. La fréquence des examens des backlinks dépend des niveaux de risque. Les profils de backlink précédemment difficiles peuvent nécessiter un examen trimestriel. La plupart des sites Web sont bien desservis et des examens sont effectués tous les six à douze mois. Dans tous les cas, les liens de spam nouvellement identifiés doivent être désavoués au niveau du domaine.
Les liens d'affiliation vers votre site ajouteront-ils / réduiront-ils l'autorité? Peuvent-ils provoquer une action manuelle?
Oui, les liens d'affiliation vers votre site Web sont souvent une responsabilité de backlink et peuvent être la principale cause d'une pénalité manuelle. Pour éviter le risque, assurez-vous que les liens d'affiliation vers votre site ne passent aucune autorité. En cas de doute, obtenez un deuxième avis d'un professionnel pour évaluer votre configuration actuelle.
Dois-je également utiliser le fichier de désaveu pour éviter une pénalité manuelle? L'effort est énorme pour revoir des milliers de liens, mais l'effet n'est pas clair.
Cela dépend des niveaux de risque qui sont individuels pour chaque site. Les sites au passé coloré, qui avaient été auparavant des liens, sont susceptibles d'attirer des liens indésirables, même après l'arrêt de leurs efforts intentionnels. Très probablement, la réponse est «oui», mais cela ne doit pas être un effort énorme et intense en ressources. Au lieu de cela, les examens et les mises à jour périodiques ont tendance à être suffisants pour atténuer les risques de backlink.
Si un concurrent achète des liens de spam vers ma propriété, puis me signale, Google a-t-il un moyen de savoir que je ne devrais pas être pénalisé?
C'est ce qu'on appelle le référencement négatif et Google peut ou non comprendre le contexte des liens en question. C'est exactement l'une des situations dans lesquelles l'outil de désaveu peut être utilisé et permet au webmaster de garder le contrôle de son propre profil de backlink.
La désaveu est-elle utilisée pour l'évaluation algorithmique ou uniquement manuelle?
Tous les fichiers de désaveu téléchargés par le propriétaire du site Web aident les moteurs de recherche à comprendre les liens à ignorer du point de vue de l'autorité. Les moteurs de recherche tels que Google peuvent alors choisir de l'utiliser dans leurs calculs algorithmiques lors de la détermination de la visibilité de la recherche pour un site Web. Cependant, si un site Web est pénalisé, l'outil de désaveu peut être l'un des outils utilisés pour récupérer de la pénalité.
Un site Web peut-il être pénalisé en raison de pages au contenu très court ou de pages au contenu en double?
Oui c'est possible. Demandez-vous, la page ajoute-t-elle suffisamment de valeur ou un contenu original et convaincant? Je recommande la lecture de la proposition de vente unique: un élément clé du succès du référencement pour en savoir plus sur ce sujet.
La demande de désaveu entraîne-t-elle un examen manuel de la part de l'équipe qualité ou est-elle automatisée?
En fait, il soumet un fichier de désaveu, un document en texte brut mettant en évidence des domaines avec des liens spécifiques avec lesquels vous souhaitez vous dissocier et c'est un outil pour le propriétaire du site Web. Le fichier de désaveu importé est traité automatiquement et il n'y a aucune interaction humaine dans ce processus du côté de Google. Donc non, la soumission d'un fichier de désaveu n'entraîne pas une révision manuelle.
Algorithmes, exploration, indexation et Google Search Console
Google accorde-t-il du poids au trafic via les liens? Avez-vous des données pour soutenir que le trafic via les liens est important pour le classement?
Non, Google ne considère pas le trafic comme un lien susceptible de produire un signal de classement.
Avez-vous des conseils pour comprendre la différence dans le nombre de pages incluses dans l'index entre la console du site et la recherche «site:»?
Le site: les résultats des opérateurs, qui sont principalement utilisés par les SEO et à peine par les utilisateurs réguliers, ont tendance à renvoyer une estimation approximative du volume de pages explorées, indexées et potentiellement classées. Les données de couverture affichées dans la Google Search Console sont plus précises et utiles à des fins de référencement. Assurez-vous d'ajouter votre site Web en tant que propriété de domaine à la Google Search Console aux données les plus inclusives.
Existe-t-il un moyen de définir une notification concernant les problèmes de sécurité dans Google Search Console?
Il n'est pas nécessaire de définir activement des notifications pour ces problèmes dans Google Search Console, car Google le fait automatiquement pour l'utilisateur concerné. À côté de tous les avis reçus dans l'aperçu des actions manuelles de Google Search Console, Google met également en évidence le problème détecté en envoyant un e-mail supplémentaire à l'adresse e-mail associée aux propriétaires du site Web dans Google Search Console.
Quelle métrique est utilisée pour évaluer une page comme lente / moyenne / rapide (score de vitesse / temps de rendu /…?) Et pensez-vous que cette métrique est également utilisée pour le classement?
Il est absolument sûr de supposer que les performances du site sont un facteur de classement énorme et que – lorsque tous les autres facteurs entre les sites Web sont similaires – le site Web le plus rapide a toujours un avantage significatif. Google a publié de nombreuses études sur la vitesse et des articles de blog sur la façon d'améliorer les performances du site Web. Lorsque vous testez les performances d'un site Web, testez les utilisateurs mobiles sur les connexions 3G ou essayez Google Lighthouse (intégré à Chromium / Google Chrome).
Quelles sont les principales choses que vous recommandez de surveiller régulièrement sur la console de recherche qui peuvent nous donner une idée de la façon dont nous nous comportons par rapport à la concurrence?
La surveillance des concurrents est à la fois fastidieuse et fournit la plupart du temps de précieuses informations. Prenons par exemple le contrôle des activités de création de liens entre concurrents. Il peut ou non suggérer que les consignes aux webmasters de Google sont courbées ou cassées. Mais il ne donne aucun aperçu du fichier de désaveu des concurrents et est donc essentiellement dénué de sens, du point de vue du référencement.
Il semble qu'il n'y ait pas d'équipe de recherche de qualité dans les petits pays qui étudient les mots clés des casinos. Se soucient-ils seulement du SERP anglais?
Pendant mon séjour à la recherche Google, les capacités linguistiques de l'équipe étaient stupéfiantes. Alors que l'anglais était la langue commune, tout le monde semblait parler plusieurs langues, y compris certaines langues moins courantes que d'autres. J'avais un collègue près de moi qui parlait couramment le swahili. Il y a un certain mérite dans la perception selon laquelle certaines langues renvoient des pages plus douteuses et cela est dû au fait que les langues plus petites ont tendance à se composer également de plus petites quantités de contenu indexable et de qualité.
Le CTR d'extrait de code SERP est-il un facteur de classement dans Google ou non?
Oui, il s'agit d'un des nombreux signaux utilisateurs et donc d'une grande importance pour les classements. Cependant, ne vous concentrez pas uniquement sur l'optimisation du CTR de vos extraits de code en raison de signaux de classement possibles, mais concentrez-vous plutôt sur la conversion accrue et meilleure des utilisateurs de vos impressions SERP actuelles vers votre site Web.
Google associe-t-il différents domaines s'ils ont le même propriétaire enregistré?
Google dispose de nombreuses données disponibles et peut souvent facilement voir si différents domaines appartiennent au même propriétaire ou non. Cependant, la possession de plusieurs domaines n'est pas un facteur de classement, ni un signal négatif.
Pouvons-nous copier un avis à partir d'un autre site, le placer sur le site de l'entreprise et le baliser avec un schéma?
Bien que cela soit possible, cela ne sert à rien. La republication de contenu déjà existant sans ajouter de valeur est essentiellement un grattage et peut avoir un impact négatif sur les signaux de contenu d'un site.
Si la mise à jour de l'algorithme n'est pas une pénalité mais prend un mauvais virage, pourquoi Google ne partage-t-il pas la carte des sites concernés?
C'est une idée fausse de supposer que les algorithmes échouent, donc un site est classé plus bas qu'il ne le mérite, donc Google doit compenser cela au propriétaire du site d'une manière ou d'une autre. Google se soucie de ses utilisateurs de la recherche Google et tant que les utilisateurs indiquent avec leur comportement qu'ils sont satisfaits des mises à jour algorithmiques, il en va de même de Google.
Quelles considérations (en dehors du désaveu des liens douteux) devons-nous examiner lors de la migration d'un autre site Web vers un site existant? (par exemple, la combinaison de deux entreprises)
Fondamentalement, il est logique que les sites soient sur le même sujet. Tout en intégrant un site Web dans un autre, il est important d'établir des redirections 301 correctes et durables. Parfois, il peut être judicieux de s'assurer qu'aucun problème hérité, tel qu'un contenu obsolète, n'est migré. Il est également important d'assurer un lien interne approprié pour migrer le contenu afin d'éviter les pages orphelines. Enfin, sachez que l'intégration de deux sites différents en un seul peut «réinitialiser» votre classement car cela peut prendre un certain temps aux moteurs de recherche pour comprendre ce que vous faites. Obtenez de l'aide d'un professionnel du référencement technique avant de commencer à déménager, car il existe souvent de grandes opportunités pour se débarrasser des anciens signaux qui pourraient avoir retardé votre site Web.
Que pensez-vous des pages AMP et de leur utilisation pour classer un site?
AMP est une expérience de vitesse de site visant à améliorer l'expérience utilisateur dans certaines données démographiques, niches et / ou régions où les performances de vitesse de site sont souvent un problème. En tant que tel, AMP est favorisé par Google, mais ce n'est pas un facteur de classement. Il existe des technologies alternatives disponibles qui offrent des expériences tout aussi rapides, voire plus rapides, tandis que le propriétaire du site Web conserve un contrôle total sur le contenu et les journaux du serveur, ce qui est partiellement perdu avec AMP. Un autre danger avec AMP est également que le développement du site Web, au sein des équipes de développement et de gestion, passe de l'optimisation pour des expériences de vitesse de site rapide à la validation pour AMP, ce qui n'entraîne pas nécessairement toujours les meilleures décisions concernant le contenu ou la expérience du site. Cela dit, le recours à l'AMP peut être un outil déterminant pour aligner tout le monde au sein d'une organisation sur les performances du site de budgétisation. Pour résumer, bien que l'AMP soit une expérience de vitesse intéressante et ne soit pas intrinsèquement mauvaise pour le référencement d'un site Web, elle a certainement ses limites et dépend fortement du site Web, de son public cible, de la structure organisationnelle interne et de l'infrastructure actuelle.
Connecter GSC à l'analytique: peut-il nuire au référencement de votre site?
Non, ça ne peut pas.
Quelles sont vos 3 principales fonctionnalités que vous aimeriez voir migrées dans le nouveau SC?
1. Présentation des paramètres d'URL et des données structurées au niveau de la propriété du domaine.
2. Je serais ravi de voir les rapports d'erreur DNS revenir dans la nouvelle Google Search Console, car il n'y a actuellement aucun autre endroit où nous pouvons voir si Googlebot rencontre des problèmes DNS avec l'accès à un site Web.
3. UX. Bien que l'ancienne interface soit simple et simple et que la nouvelle interface contienne beaucoup plus de données, ce qui manque vraiment à la nouvelle Google Search Console par rapport à l'ancienne Search Console est une bonne expérience utilisateur. Pour vous donner quelques exemples:
La nouvelle interface utilisateur est vraiment lente par rapport à l'ancienne interface utilisateur. Je ne peux pas cliquer avec le bouton droit pour ouvrir un résultat dans un nouvel onglet (par exemple, l'outil d'inspection d'URL). L'ouverture de plusieurs propriétés est fastidieuse car aucune page de présentation de toutes les propriétés n'a été ajoutée dans la nouvelle Google Search Console. Je dois utiliser les boutons de retour pour naviguer vers les rapports sélectionnés précédents ou je me retrouve sur la page d'accueil de la section et je dois tout sélectionner à nouveau. Il est difficile de voir les filtres, lorsqu'ils sont appliqués à un jeu d'échantillons, car le formulaire se cache toujours.
L'ancienne Search Console a peut-être été démodée, mais au moins, elle était beaucoup plus conviviale dans la conception de navigation de base.
Est-il judicieux d'accélérer le site de Googlebot? Par exemple, cachez entièrement le site, car pour les utilisateurs, nous ne pouvons pas le faire à cause de la personnalisation.
Ayez toujours une version par défaut de votre site Web, sans la personnalisation, pour les robots et les utilisateurs. Il s'agit alors de la version que vous pouvez mettre en cache de manière agressive. Toute personnalisation est du contenu indexable est une amélioration de la version par défaut pour les utilisateurs qui vous permettent d'améliorer leur expérience, mais votre site ne devrait jamais en dépendre.
Pourquoi Google ignore parfois rel = canonical?
La raison pour laquelle les canoniques peuvent être ignorés est due à des signaux SEO techniques conflictuels de votre site Web avec Googlebot, tels que le mélange de canoniques non auto-référencés avec noindex, ou la non-liaison aux canoniques mais à d'autres variantes, ou l'application de canoniques incorrects aux pages (par exemple, canonisation des pages paginées vers la première page ou utilisation de chemins relatifs), ou vos canoniques ne correspondent pas à vos URL Sitemap, etc. Il existe de nombreuses raisons pour lesquelles Google peut ignorer vos canoniques et un audit SEO technique complet vous expliquera pourquoi.
J'ai un algorithme en panne. Puis-je contacter des personnes dans Google pour obtenir des conseils?
Non. Lors de conférences, il peut être possible d'approcher un spécialiste, comme John Mueller, mais il est peu probable qu'il fournisse une réponse concrète et immédiate. Google n'offre pas d'assistance individuelle pour les webmasters. Il existe les forums d'aide Google pour les webmasters, qui sont un canal de communication, surveillés par des employés de Google qui peuvent parfois participer à la conversation. Vous pouvez également poser votre question lors d'une des sessions Google Webmaster Video. Ce sont les meilleures options disponibles pour contacter Google si vous le souhaitez. Cependant, le problème n'est probablement pas du côté de Google, mais du vôtre et la meilleure alternative est de demander l'avis d'un tiers, un professionnel du référencement qualifié pour vous aider à analyser votre site Web.
Quelle serait la raison typique de la découverte non explorée et analysée non indexée (si ce n'est pas robots.txt, statuscode, noindex, redirect, canonical related)?
La raison pour laquelle les pages de destination ne sont pas explorées ou explorées mais non indexées est toujours le résultat de signaux SEO contradictoires. Cela peut être de nature technique, comme les canoniques, ou basé sur la qualité, comme les signaux de contenu. Habituellement, la raison de ces problèmes peut être identifiée par un audit SEO approfondi.
Pourquoi Google ne partage-t-il pas plus de détails sur leurs plus grosses mises à jour d'algo si elles sont «pédagogiques»?
Google partage de nombreuses ressources pédagogiques via ses nombreux canaux. Cependant, il est important de garder à l'esprit que la plupart des propriétaires de sites Web ne sont pas intéressés par les détails les plus fins des mises à jour algorithmiques. Bien que du point de vue de l'industrie du référencement, cela puisse sembler être quelque chose à désirer, même si Google ne s'est pas inquiété que les spammeurs essaient de faire de l'ingénierie inverse et de spammer davantage leurs algorithmes, ce n'est tout simplement pas faisable à la lumière des multiples versions et mises à jour algorithmiques qui se produisent chaque seule journée.
Vous avez d'autres questions?
Si vous n'avez pas trouvé la réponse à une question SEO spécifique que vous recherchez ici ou peut-être que vous voulez simplement parler de la recherche Google et du référencement, vous pouvez me trouver au prochain SMX East à New York où je parlerai de plusieurs SEO des sujets qui me tiennent à cœur et qui abordent des questions de référencement, des mythes et des idées fausses. Rendez-vous en novembre 2019 à New York!
Les opinions exprimées dans cet article sont celles de l'auteur invité et pas nécessairement Search Engine Land. Les auteurs sont listés ici.
A propos de l'auteur
Fili est un expert SEO technique renommé, ancien ingénieur Google et était un responsable technique senior dans l'équipe Google Search Quality. Chez SearchBrothers, il offre des services de consultation SEO avec des audits SEO, des ateliers SEO et récupère avec succès les sites Web des sanctions Google. Fili est également un conférencier fréquent à SMX et à d'autres événements de marketing en ligne.