Par Katie Kuchta
Depuis combien de temps vous laissez vos doigts parcourir les Pages Jaunes? Ou ouvert une encyclopédie? Ou appelé la bibliothèque à la recherche d’aide pour les devoirs?
Si vous aimez la plupart du monde en ligne, votre réponse est «longtemps» – ou «jamais».
Les moteurs de recherche ont rendu ces activités aussi démodées que les fouets, les jupes à cerceau et les vendeurs de brosses porte-à-porte.
Aujourd’hui, nous avons tout à portée de main dans un appareil intelligent ou un ordinateur de bureau élégant. Nous comptons moins sur des suggestions personnelles et plus sur ce que l’Internet nous suggère. Et une entreprise, en particulier, a été le leader d’opinion dans cette ère dépendante de la technologie: Google.
Le moteur de recherche du géant de la technologie de Mountain View, en Californie, est devenu la plaque tournante et la principale source d’informations. Ce flux d’informations est devenu l’un des canaux marketing les plus importants d’aujourd’hui.
L’optimisation des moteurs de recherche (SEO) est le processus d’amélioration d’un site Web grâce à une variété de tactiques et de modifications constantes pour apparaître dans les résultats de recherche. Le but? Pour améliorer l’expérience de l’utilisateur du site Web et améliorer les performances de ce site dans les résultats de recherche. Le référencement génère finalement du trafic (et des affaires) vers le site Web. Il est facile de considérer le SEO comme une nouveauté, mais il fait en fait partie de l’ère numérique depuis le début.
1991: Bienvenue sur le World Wide Web
Tout a commencé lorsque Tim Berners-Lee a partagé son invention du tout premier navigateur, le World Wide Web, le plus souvent appelé le «Web». En août 1991, les pionniers du Web ont publié une bibliothèque de codes (libWWW) permettant aux participants de créer leurs propres navigateurs et serveurs Web.
1994: Eric Ward ouvre la voie à la création de liens
La création de liens a commencé avant que Google n’ait joué un rôle considérable dans l’augmentation des classements de recherche. C’était alors, comme c’est aujourd’hui, un facteur important de marketing pour un site web. Mais à l’époque, Internet n’était pas si complexe. Eric Ward gagnait son surnom de «LinkMoses» pour sa réalisation pionnière que le Web ne signifiait rien à moins qu’il n’y ait un moyen pour les gens de trouver une URL spécifique. En 1994, le fondateur de Yahoo, Jerry Yang, a créé une nouvelle catégorie dans le répertoire de son entreprise naissante, juste pour Ward – «promotion Web». Un jeune entrepreneur nommé Jeff Bezos a engagé Ward en tant que consultant pour aider à lancer la nouvelle entreprise de Bezos —Amazon.com. Aujourd’hui, la création de liens est l’un des facteurs de classement Google les plus importants et les trois premiers.
1995: Les navigateurs bénéficient d’une interface graphique, les moteurs de recherche sont nés
La guerre des navigateurs a commencé, déclenchée par le lancement en décembre 1994 de Netscape, le premier navigateur Web à succès commercial. Cela a été suivi en 1995 par l’introduction de l’entrée de Microsoft dans le domaine du navigateur, Internet Explorer. Ces navigateurs ont des interfaces utilisateur graphiques (GUI) et ils peuvent incorporer à la fois du texte et des images graphiques dans une seule page. Cette innovation a considérablement stimulé la popularité et la croissance du Web. Les moteurs de recherche tels que nous les connaissons aujourd’hui existaient à l’époque, mais leur qualité variait en raison de leur vitesse et de leur portée limitées. L’un appelé Alta Vista, créé en 1995, est devenu populaire car il combinait une recherche rapide et large (pour l’époque). Mais ça ne pouvait pas vraiment suivre. Internet se développait plus rapidement que les capacités des moteurs de recherche pour l’indexer. En termes de recherche en ligne, c’était l’ère des répertoires organisés, dominés par Yahoo. Yahoo ne le savait pas alors, mais il allait devenir un dinosaure.
1997: première utilisation du terme «Search Engine Optimization»
La toute première utilisation du terme SEO est une référence d’une agence de marketing web, qui a proposé «l’optimisation des moteurs de recherche» en tant que service en février 1997.
1998: la recherche Google est née
Sergey Brin et Larry Page
Si Larry Page et Sergey Brin ne s’étaient jamais rencontrés à l’Université de Stanford, où serait le monde de la recherche aujourd’hui? En septembre 1998, trois ans après leur rencontre, ils ont lancé Google – le nom un décollage sur le mot «googol», le terme pour le numéro 1 suivi de 100 zéros.
Ce qui a commencé comme un exercice académique pour déterminer l’importance des pages sur le World Wide Web en 1998 est aujourd’hui l’une des plus grandes sociétés de technologie au monde.
Aujourd’hui, Google est le moteur de recherche le plus populaire, avec près de 5,6 milliards de recherches par jour. Du point de vue de l’utilisateur, comment Google sait-il pour montrer ce que je recherche dans une requête de recherche? Et de l’autre côté, comment un site Web apparaît-il dans les résultats de recherche de Google? C’est là que l’optimisation des moteurs de recherche entre en jeu. L’algorithme de Google est extrêmement complexe et la société continue de mettre à jour les moteurs de recherche, grands et petits.
Une fois que les spécialistes du marketing (et maintenant les optimiseurs de référencement eux-mêmes) ont commencé à comprendre comment Google lit et classe les sites Web, ils ont commencé à trouver des moyens de manipuler la page de résultats du moteur de recherche. Ils ont pu augmenter leur classement dans les résultats de recherche, sans filtrage Google pour la qualité ou la pertinence du site Web.
Google a compris cela et a sorti un livre de règles pour créer un excellent site Web appelé les Consignes aux webmasters. Ces directives sont connues sous le nom de tactiques de référencement «chapeau blanc». Il s’agit d’une liste sur la façon de respecter les règles et d’éviter les pénalités (comme la suppression ou la rétrogradation d’un site Web dans les listes).
2003: tactiques Black Hat et première grande mise à jour de l’algorithme de Google: Floride
De nombreux comportements sommaires ont commencé à accélérer le classement des pages Web pour les mots clés ciblés. Cette pratique des tactiques qui vont à l’encontre des directives est connue sous le nom de «SEO chapeau noir». Les tactiques de Black Hat SEO incluent des choses comme le remplissage de pages avec des mots-clés, la duplication de contenu et la dissimulation de texte et de liens. Réagissant au jeu déloyal, Google a publié sa première mise à jour majeure de l’algorithme, baptisée « Florida ». Nommé d’après l’ouragan d’un tourbillon qui a changé la recherche, il s’est battu contre des sites Web pratiquant des tactiques de chapeau noir. Il a également puni ces types de sites Web en supprimant la majorité des sites Web affiliés classés selon des conditions commerciales.
2011: mise à jour de l’algorithme Panda 1.0 de Google
Google a continué de mettre à jour son algorithme pour créer une meilleure expérience pour les utilisateurs. En 2011, il a réagi contre une tendance marketing massive qui avait pollué les résultats de recherche. Ces «fermes de contenu» ont généré une récolte massive de contenu de faible qualité, et pendant un certain temps, la tactique a fonctionné. Les spécialistes du marketing ont créé plusieurs pages en peu de temps.
Les pages respectaient à peine les directives alors en vigueur. Comme l’a dit Matt Cutts de Google, les pages de la ferme de contenu ont fait «le strict minimum sans être du spam». L’une de ces fermes, Demand Media, a vu sa valeur de marché grimper à 2 milliards de dollars après une introduction en bourse. Mais ensuite, Google a appliqué un pesticide algorithmique.
Panda a ciblé ces pages avec une faible qualité et un contenu fin et a réduit les résultats. Il a également récompensé les pages qui ont un contenu unique et de haute qualité. Demand Media et les entreprises qui comptaient sur de gros volumes de contenu de faible qualité ont connu une chute épique.
2012: mise à jour de l’algorithme Penguin 1.0 de Google
Si la Floride a tiré la salve d’ouverture de Google contre les tactiques de référencement chapeau noir, et Panda a brûlé la terre sous les fermes de contenu. Et puis Penguin a lancé une attaque sélective raffinée sur des pages Web de mauvaise qualité.
La mise à jour de Penguin a plongé plus loin dans les schémas de création de liens que de nombreux SEO ont pratiqués. Beaucoup ont reçu des pénalités pour le classement du contenu léger avec de nombreux liens pointant vers lui. Penguin était un moyen de découvrir la valeur des liens et de voir si ces liens entrants provenaient de sites Web hautement autorisés et pertinents. (Penguin n’a pas pris en compte à l’origine les liens externes sur un site Web, seulement ceux qui y pointent.)
2013: Hummingbird aide Google à déchiffrer l’intention, à aller au niveau local
Panda et Penguin, bien qu’influents, étaient des mises à jour supplémentaires plus petites du moteur de recherche Google. En revanche, la mise à jour Hummingbird a atteint l’ensemble de l’algorithme (similaire à la mise à jour «Florida» dans la portée). Il a aidé à afficher les résultats avec une intention de recherche meilleure ou plus vraie en traduisant la recherche sémantique. Aujourd’hui, la recherche sémantique est la façon dont la plupart des requêtes de recherche sont lues. Il examine plus en détail ce que recherche l’utilisateur plutôt que de simplement lire sa requête. La mise à jour Hummingbird a également aidé les sites Web destinés aux résultats locaux et a montré plus d’un répertoire dans les résultats organiques locaux.
2015: Google présente RankBrain
RankBrain était la première mise à jour de l’algorithme de Google utilisant l’intelligence artificielle (IA). Son objectif était d’aider à comprendre les nouvelles requêtes au fur et à mesure qu’elles se présentent et de déterminer l’intention de l’utilisateur.
RankBrain effectue lui-même des mises à jour de l’algorithme et surveille de plus près la satisfaction des utilisateurs en mesurant la façon dont ils interagissent avec les résultats affichés. Heureusement, pour optimiser cette mise à jour, tout dépend de l’utilisateur et de l’utilisation dans votre contenu d’un langage qui se lit naturellement comme si un humain l’avait écrit (et j’espère qu’il l’a fait!).
Maintenant: les meilleurs facteurs de classement de Google
Aujourd’hui, Google continue de dominer l’espace des moteurs de recherche, avec neuf requêtes sur dix passant par son algorithme. Il continue également de constamment mettre à jour son algorithme.
Qu’est-ce que cela signifie pour les référenceurs et les responsables marketing qui tentent de classer leurs sites Web dans les SERP? L’histoire montre un résultat cohérent: les tours ne fonctionnent que pendant un certain temps. Les entreprises qui réussissent en ligne sont parfaitement conscientes des mises à jour d’algorithmes au fur et à mesure qu’elles se produisent. Mais ils gardent leurs yeux sur l’objectif à long terme de s’assurer que leurs sites Web fournissent ce que leur public veut. S’aligner sur l’intention des utilisateurs signifie avoir un contenu de haute qualité, frais et pertinent, des backlinks hautement autorisés et utiliser un langage naturel optimisé pour RankBrain – et tout ce que le prochain ajustement algorithmique apportera.
Katie Kuchta est la responsable marketing de la start-up en phase de croissance, LawnStarter Lawn Care.