A Brief History Of Search Engine Optimization
octobre 30, 2020

Un bref historique de l’optimisation des moteurs de recherche

Par damien

L’optimisation des moteurs de recherche (SEO) tourne aujourd’hui autour de Google. Cependant, la pratique que nous connaissons aujourd’hui sous le nom de SEO est en fait antérieure au moteur de recherche le plus populaire du monde, co-fondé par Larry Page et Sergey Brin.

Bien que l’on puisse affirmer que l’optimisation des moteurs de recherche et tout ce qui s’y rapporte ont commencé avec le lancement du premier site web publié en 1991, ou peut-être lorsque le premier moteur de recherche web a été lancé, l’histoire de l’optimisation des moteurs de recherche commence “officiellement” un peu plus tard, vers 1997.

Selon Bob Heyman, auteur de “Digital Engagement”, nous ne pouvons remercier personne d’autre que le manager du groupe de rock Jefferson Starship pour avoir contribué à donner naissance à un nouveau domaine que nous connaîtrons sous le nom de “optimisation pour les moteurs de recherche”.

Vous voyez, il était assez contrarié que le site officiel du Jefferson Starship soit classé en page 4 d’un moteur de recherche quelconque à l’époque, plutôt qu’en position 1 sur la page 1.

Certes, nous ne saurons peut-être jamais si cette histoire est davantage une histoire révisionniste ou un fait à 100 %, mais tous les signes indiquent clairement que le terme SEO a été créé vers 1997.

Faites un peu plus de recherche et vous verrez que John Audette du Multimedia Marketing Group utilisait ce terme dès le 15 février 1997.

Le classement dans les moteurs de recherche en 1997 était encore un concept assez nouveau. Il était également très axé sur les annuaires. Avant que DMOZ n’alimente le classement original de Google, LookSmart était animé par Zeal, Go.com était son propre répertoire et le répertoire Yahoo était un acteur majeur de la recherche sur Yahoo.

Si vous ne connaissez pas DMOZ, le Mozilla Open Directory Project (souvenez-vous, Mozilla était une entreprise et Moz était une marque bien avant SEOMoz), il s’agissait en fait d’un annuaire Pages Jaunes pour les sites web. C’est ce sur quoi Yahoo a été fondé à l’origine, la capacité de trouver les meilleurs sites web, tels qu’ils sont approuvés par les éditeurs.

J’ai commencé à faire du référencement en 1998, pour répondre à un besoin de nos clients qui avaient construit des sites sympas mais qui avaient peu de trafic. Je ne savais pas que cela deviendrait un style de vie.

Mais le World Wide Web était encore un concept assez nouveau à l’époque pour la plupart des gens.

Aujourd’hui ? Tout le monde veut régir les pages de résultats des moteurs de recherche (SERP).

Optimisation des moteurs de recherche vs. marketing des moteurs de recherche

Avant que l’optimisation pour les moteurs de recherche ne devienne le nom officiel, d’autres termes étaient également utilisés. Par exemple :

Placement dans les moteurs de recherchePositionnement dans les moteurs de rechercheRang dans les moteurs de rechercheInscription dans les moteurs de rechercheSoumission dans les moteurs de recherchePromotion de sites web

Mais aucune discussion ne serait complète sans mentionner un autre terme : Marketing des moteurs de recherche.

À un moment donné en 2001, un éminent rédacteur de l’industrie a suggéré le marketing des moteurs de recherche comme successeur de l’optimisation des moteurs de recherche.

De toute évidence, cela n’a pas été fait.

Préparez-vous dès maintenant : vous allez voir de nombreuses fausses affirmations (par exemple, “le référencement est mort” “le nouveau référencement”) et des tentatives de relookage du référencement (“Search Experience Optimization”).

Bien que le terme SEO ne soit pas parfait – après tout, nous n’optimisons pas les moteurs de recherche, nous optimisons notre présence sur le web – il est resté le terme préféré de notre industrie depuis 20 ans maintenant et le sera probablement dans un avenir proche.

Quant au marketing des moteurs de recherche, il est toujours utilisé, mais il est désormais davantage associé à la recherche payante. Les deux termes coexistent aujourd’hui pacifiquement.

Une chronologie de l’histoire des moteurs de recherche

Les moteurs de recherche ont changé la façon dont nous trouvons des informations, effectuons des recherches, achetons des produits et des services, nous divertissons et nous connectons avec les autres.

Derrière presque chaque destination en ligne – qu’il s’agisse d’un site web, d’un blog, d’un réseau social ou d’une application – se trouve un moteur de recherche. Les moteurs de recherche sont devenus la force de connexion et le guide directionnel de la vie quotidienne.

Mais comment tout cela a-t-il commencé ?

Nous avons établi une chronologie des étapes importantes de l’histoire des moteurs de recherche et de l’optimisation des moteurs de recherche afin de comprendre les racines de cette technologie, qui est devenue une partie si importante de notre monde.

L’aube de l’optimisation des moteurs de recherche : “L’ère du “Far West

Dans la dernière décennie des années 1900, le paysage des moteurs de recherche était très concurrentiel. Vous aviez le choix entre plusieurs moteurs de recherche – à la fois des annuaires à moteur humain et des listes à base de crawlers – dont AltaVista, Ask Jeeves, Excite, Infoseek, Lycos et Yahoo.

Au début, la seule façon d’effectuer un quelconque référencement était d’effectuer des activités sur les pages. Il fallait notamment s’assurer que le contenu était bon et pertinent, qu’il y avait suffisamment de texte, que vos balises HTML étaient exactes et que vous aviez des liens internes et externes, entre autres facteurs.

Si vous vouliez être bien classé à cette époque, l’astuce consistait à répéter vos mots-clés suffisamment de fois dans vos pages web et vos méta-tags. Vous voulez surclasser une page qui utilise un mot-clé 100 fois ? Alors vous utiliseriez le mot-clé 200 fois ! Aujourd’hui, on appelle cette pratique le spamming.

Voici quelques exemples :

1994 : Yahoo a été créé par Jerry Wang et David Filo, étudiants à l’université de Stanford, dans une caravane du campus. Yahoo était à l’origine une liste de signets Internet et un répertoire de sites intéressants. Les webmestres devaient soumettre manuellement leur page au répertoire de Yahoo pour qu’elle soit indexée et que Yahoo puisse la trouver lorsque quelqu’un effectuait une recherche. AltaVista, Excite et Lycos ont également été lancés en 1996 : Page et Brin, deux étudiants de l’université de Stanford, construisent et testent Backrub, un nouveau moteur de recherche qui classe les sites en fonction de la pertinence et de la popularité des liens entrants. Backrub deviendra finalement Google. HotBot, développé par Inktomi, est également lancé en 1997 : Suite au succès de A Webmaster’s Guide to Search Engines, Danny Sullivan a lancé Search Engine Watch, un site web dédié à fournir des nouvelles sur l’industrie de la recherche, des conseils sur la recherche sur le web, et des informations sur la façon de mieux classer les sites web. (Dix ans plus tard, après avoir quitté SEW, Sullivan a fondé une autre publication de recherche populaire, Search Engine Land). Ask Jeeves a également fait ses débuts et Google.com a été enregistré en 1998 : Goto.com a été lancé avec des liens sponsorisés et une recherche payante. Les annonceurs enchérissent sur Goto.com pour se classer au-dessus des résultats de recherche organique, qui sont alimentés par Inktomi. Goto.com a finalement été racheté par Yahoo. Le DMOZ (Open Directory Project) est devenu l’endroit le plus recherché par les spécialistes du référencement pour faire référencer leurs pages. MSN est entré dans la recherche avec MSN Search, initialement propulsé par Inktomi.1999 : La toute première conférence sur le marketing de recherche, Search Engine Strategies (SES), a eu lieu. Vous pouvez lire une rétrospective de cet événement par Sullivan ici. (La série de conférences SES a continué à se dérouler sous différents noms et sociétés mères jusqu’à sa fermeture en 2016.)La révolution Google

En 2000, Yahoo a pris la pire décision stratégique de l’histoire de la recherche et s’est associé à Google pour laisser Google alimenter ses résultats organiques au lieu d’Inktomi. Auparavant, Google était un moteur de recherche peu connu. À peine connu ! Le résultat final : chaque résultat de recherche de Yahoo disait “Powered by Google” et ils ont fini par présenter leur plus grand concurrent au monde et Google est devenu un nom connu de tous.

Jusqu’à présent, les moteurs de recherche classaient principalement les sites en fonction du contenu des pages, des noms de domaine, de la possibilité d’être inscrit dans les répertoires susmentionnés et de la structure de base du site (fil d’Ariane). Mais le crawler web et l’algorithme PageRank de Google ont été révolutionnaires pour la recherche d’informations. Google a examiné les facteurs on-page et off-page – la quantité et la qualité des liens externes pointant vers un site web (ainsi que le texte d’ancrage utilisé).

Si vous y réfléchissez bien, l’algorithme de Google consistait essentiellement à “si les gens parlent de vous, vous devez être important”.

Bien que les liens ne soient qu’un élément de l’algorithme de classement global de Google, les spécialistes de l’optimisation des moteurs de recherche ont considéré les liens comme le facteur le plus important, et toute une sous-industrie de la création de liens a été créée. Au cours de la décennie suivante, la course à l’acquisition du plus grand nombre de liens possible dans l’espoir d’un meilleur classement s’est intensifiée et les liens sont devenus une tactique très malmenée que Google devra aborder dans les années à venir.

C’est également en 2000 que la barre d’outils Google est devenue disponible sur Internet Explorer, permettant aux praticiens du référencement de voir leur score de PageRank (un nombre entre 0 et 10). Cela a inauguré une ère de courriels de demande d’échange de liens non sollicités.

Ainsi, avec le PageRank, Google a essentiellement introduit une mesure de la monnaie dans ses liens. Tout comme l’autorité du domaine est aujourd’hui mal utilisée.

Les résultats organiques de Google ont également obtenu une certaine notoriété sous la forme d’annonces AdWords à partir de 2000. Ces annonces de recherche payantes ont commencé à apparaître au-dessus, en dessous et à droite des résultats non payés de Google.

Entre-temps, un groupe de webmasters s’est réuni de manière informelle dans un pub à Londres pour commencer à partager des informations sur tout ce qui touche au référencement en 2000. Cette réunion informelle s’est finalement transformée en Pubcon, une grande série de conférences sur la recherche qui se déroule encore aujourd’hui.

Au cours des mois et années suivants, le monde du référencement s’est habitué à une “Google Dance” mensuelle, c’est-à-dire une période pendant laquelle Google mettait à jour son index, ce qui entraînait parfois d’importantes fluctuations de classement.

Bien que M. Brin ait dit un jour que Google ne croyait pas au spam sur le web, son opinion avait probablement changé au début de l’année 2003. Le référencement est devenu beaucoup plus difficile suite à des mises à jour comme celle de la Floride, car il est devenu beaucoup plus important que la simple répétition de mots-clés x fois.

Google AdSense : Monétiser un contenu SEO terrible

En 2003, après avoir acquis Blogger.com, Google a lancé AdSense, qui diffuse des annonces Google AdWords contextuellement ciblées sur les sites des éditeurs. La combinaison d’AdSense et de Blogger.com a entraîné une forte augmentation de la publication monétisée sur Internet et une révolution des blogs.

Bien que Google ne s’en soit probablement pas rendu compte à l’époque, il créait des problèmes qu’il devrait régler plus tard. AdSense a donné naissance à des tactiques de spam et à des sites Made for AdSense remplis de contenus minces/pauvres/volés qui n’existaient que pour bien se classer, obtenir des clics et gagner de l’argent.

Oh et une autre chose importante s’est produite en 2003. J’ai fondé le site sur lequel vous êtes, Search Engine Journal ! Et je suis incroyablement heureux de vous dire que nous sommes toujours là, plus forts que jamais !

Référencement local et personnalisation

Vers 2004, Google et d’autres moteurs de recherche de premier plan ont commencé à améliorer les résultats pour les requêtes ayant une intention géographique (par exemple, un restaurant, un plombier ou un autre type d’entreprise ou de fournisseur de services dans votre ville). En 2006, Google a lancé une boîte Maps Plus, qui m’a beaucoup impressionné à l’époque.

C’est également vers 2004 que Google et les moteurs de recherche ont commencé à utiliser davantage les données des utilisateurs finaux, telles que l’historique et les intérêts de recherche, pour personnaliser les résultats de recherche. Cela signifie que les résultats que vous avez vus peuvent être différents de ceux d’une autre personne assise à côté de vous dans un café à la recherche de la même requête.

Toujours en 2005, des balises “nofollow” ont été créées pour lutter contre le spam. Les professionnels du référencement ont commencé à utiliser cette balise comme un moyen de sculpter le PageRank.

Google a également procédé à quelques mises à jour notables :

Jagger, qui a contribué à réduire le nombre d’échanges de liens non sollicités qui circulaient, tout en annonçant le déclin de l’importance du texte d’ancrage en tant que facteur de corruption.Big Daddy (créé par Jeff Manson de RealGeeks), qui a amélioré l’architecture de Google pour permettre une meilleure compréhension de la valeur et de la relation des liens entre les sites.YouTube, Google Analytics & Webmaster Tools

En octobre 2006, Google a acquis le réseau de partage de vidéos YouTube pour 1,65 milliard de dollars, qui est finalement devenu le deuxième site de recherche le plus utilisé au monde.

Aujourd’hui, YouTube compte plus d’un milliard d’utilisateurs. En raison de sa popularité croissante, le référencement de la vidéo est devenu crucial pour les marques, les entreprises et les particuliers qui voulaient être trouvés.

Google a également lancé deux produits incroyablement importants en 2006 :

Google Analytics. Cet outil gratuit basé sur le web était si populaire au moment de son lancement que les webmasters ont reçu des avertissements en cas de panne et de maintenance.Google Webmaster Tools. Désormais connus sous le nom de “Search Console”, les outils pour webmasters de Google permettent aux webmasters de visualiser les erreurs d’exploration, de voir quelles recherches ont été effectuées sur votre site et de demander sa réinclusion.

En 2006 également, les plans de site XML ont obtenu un soutien universel de la part des moteurs de recherche. Les plans de site XML permettent aux webmasters d’afficher aux moteurs de recherche toutes les URL de leur site web qui sont disponibles pour l’exploration. Un plan de site XML contient non seulement une liste d’URL mais aussi une série d’informations complémentaires, ce qui a permis aux moteurs de recherche d’explorer plus intelligemment le site.

Recherche universelle

Nous avons vraiment commencé à voir la recherche évoluer de manière nouvelle et passionnante à partir de 2007. Toutes ces mises à jour visaient à améliorer l’expérience de l’utilisateur.

Commençons par la recherche universelle de Google. Jusqu’à présent, les résultats de recherche étaient constitués de 10 liens bleus.

Ensuite, Google a commencé à mélanger les résultats de recherche organiques traditionnels avec d’autres types de résultats verticaux comme les actualités, les vidéos et les images. Ce fut sans doute le plus grand changement apporté à la recherche – et au référencement – sur Google depuis la mise à jour de la Floride.

Nettoyage du cloaque

En 2008, Eric Schmidt, alors PDG de Google, a déclaré qu’Internet devenait un cloaque et que les marques étaient la solution. “Les marques sont la façon de régler le problème du cloaque”, a-t-il déclaré.

Moins de six mois après son commentaire, une mise à jour de Google intitulée Vince est arrivée. Les grandes marques semblaient soudain être mieux classées dans les SERP.

Mais ce n’était pas vraiment destiné à récompenser les marques, selon Google. Google voulait accorder plus d’importance à la confiance dans l’algorithme (et les grandes marques ont tendance à avoir plus confiance que les petites marques moins bien établies).

Peu après cette mise à jour, Google en publie une autre pour améliorer la rapidité de leur indexation, appelée Caféine. Comme le SEJ l’avait signalé à l’époque, Caffeine était “une architecture de recherche de nouvelle génération pour Google qui est censée être plus rapide et plus précise, fournir des résultats meilleurs et plus pertinents et parcourir de plus grandes parties du web”.

En parlant de vitesse, en 2010, Google a annoncé que la vitesse du site était un facteur de classement.

Bing & The Search Alliance

En 2009, Microsoft Live Search est devenu Bing. Puis, dans une tentative de contester l’emprise de Google sur le marché américain de la recherche (près de 70 %), Yahoo et Microsoft ont uni leurs forces pour s’associer dans le cadre d’un accord de recherche de dix ans (qui a toutefois été remanié cinq ans plus tard).

L’alliance de recherche a vu le Bing de Microsoft propulser les résultats de recherche organiques et payants de Yahoo. Bien que Bing soit devenu le moteur de recherche numéro 2, ils n’ont pas réussi à briser l’emprise massive de Google sur les recherches aux États-Unis et dans le monde.

La montée des médias sociaux

Un autre phénomène est apparu à la fin des années 2000 : les réseaux sociaux.

Google a fait son grand pari sur YouTube (même s’il allait réessayer avec Google+). Mais d’autres réseaux comme Facebook, Twitter et LinkedIn ont tous émergé comme des acteurs majeurs (et bien d’autres suivront dans les années à venir).

L’essor des médias sociaux s’est accompagné d’une spéculation selon laquelle les signaux sociaux peuvent avoir un impact sur les classements de recherche. Oui, les médias sociaux peuvent contribuer au référencement, mais indirectement – tout comme d’autres formes de marketing peuvent contribuer à augmenter le trafic vers votre site web et à accroître la notoriété et l’affinité de votre marque (ce qui génère une demande de recherche).

Alors que l’impact des parts sociales (likes, tweets, +1, etc.) a été maintes fois nié par Google au fil des ans comme étant un facteur de classement, il a continué à être répertorié comme ayant une forte corrélation dans diverses études sur les facteurs de classement. Si vous souhaitez en savoir plus sur ce sujet, je vous suggère vivement de lire How Social Media Helps SEO [Réponse finale].

Le zoo de Google : Panda & Penguin

Deux mises à jour algorithmiques majeures, en 2011 et 2012, ont eu un impact important sur le référencement qui se fait encore sentir aujourd’hui alors que Google a une fois de plus tenté de nettoyer ses résultats de recherche et de récompenser les sites de haute qualité.

En 2011, Google a vu ses résultats de recherche soumis à un examen minutieux, car les “fermes de contenu” (sites web qui produisent de gros volumes de contenu de faible qualité) dominaient les résultats de recherche. Les SERP de Google étaient également encombrés de sites web présentant du contenu non original et généré automatiquement – et même, dans certains cas, des sites de grattage dépassaient les auteurs de contenu.

En conséquence, ces sites généraient des tonnes de revenus publicitaires (vous vous souvenez quand j’ai mentionné le problème AdSense de Google). ). Ces sites vivaient et mouraient également grâce au trafic organique de Google.

Mais une fois que la mise à jour de Google Panda a été lancée en 2011, de nombreux sites web ont vu une grande partie, voire la totalité, de ce trafic disparaître du jour au lendemain. Google a donné un aperçu de ce qui constitue un site de grande qualité.

Visant à éliminer les contenus de mauvaise qualité (ou de faible qualité), Panda a été mis à jour périodiquement au cours des années suivantes, pour finalement être intégré dans l’algorithme de base de Google en 2016.

Alors que les sites web se remettaient encore des effets de Panda, Google a lancé un algorithme de sur-optimisation très attendu, destiné à éliminer les “tactiques de spam agressives” de ses résultats. Finalement baptisé Penguin, cet algorithme visait les schémas de liens (sites web présentant des schémas de liens inhabituels, dont une grande quantité de texte d’ancrage correspondant exactement aux mots clés pour lesquels vous vouliez vous classer) et le bourrage de mots clés.

Penguin n’a pas été mis à jour aussi souvent que Panda, avec plus d’un an entre deux mises à jour. Et, comme Panda, Pingouin a été intégré à l’algorithme en temps réel de Google en 2016.

Des choses, pas des chaînes

En mai 2012, Google a dévoilé le graphique de la connaissance. Il s’agit d’un changement majeur qui permet de passer de l’interprétation des chaînes de mots clés à la compréhension de la sémantique et de l’intention.

Voici comment l’ingénieur Amit Singhal, SVP, de Google, l’a décrit lors du lancement :

“Le Knowledge Graph vous permet de rechercher des choses, des personnes ou des lieux dont Google a connaissance – points de repère, célébrités, villes, équipes sportives, bâtiments, caractéristiques géographiques, films, objets célestes, œuvres d’art et autres – et d’obtenir instantanément des informations pertinentes pour votre requête. Il s’agit d’une première étape essentielle pour construire la prochaine génération de recherche, qui exploite l’intelligence collective du web et comprend le monde un peu plus comme les gens”.

Google a enrichi ses résultats de recherche avec ces informations. Les panneaux, boîtes et carrousels de connaissances peuvent apparaître chaque fois que les gens font une recherche pour l’une des milliards d’entités et de faits dans le graphique des connaissances.

L’étape suivante de la nouvelle génération de recherche de Google a eu lieu en septembre 2013 sous la forme de Hummingbird, un nouvel algorithme conçu pour mieux répondre aux requêtes en langage naturel et à la recherche conversationnelle. Avec l’essor de la téléphonie mobile (et de la recherche vocale), Google a dû complètement reconstruire le fonctionnement de son algorithme pour répondre aux besoins des chercheurs modernes.

Hummingbird était considéré comme le plus grand changement apporté à l’algorithme de base de Google depuis 2001. Il était clair que Google voulait fournir des résultats plus rapides et plus pertinents, en particulier aux utilisateurs mobiles.

Mobile-First

À partir de 2005 environ, une question n’a cessé d’être posée dans notre secteur. S’agit-il de l'”Année du mobile” ?

Eh bien, il s’avère que ce n’était pas en 2005. Ni en 2006. Et 2007 non plus. Ni en 2008. Ni en 2009. Pas même en 2010 – quand Google s’est transformé en une entreprise de téléphonie mobile.

Puis 2011, 2012, 2013 et 2014 sont arrivés et sont repartis. Le mobile a fait parler de lui et a fait l’objet d’une grande publicité parce qu’il a connu une croissance fulgurante pendant tout ce temps. Les utilisateurs étant de plus en plus nombreux à adopter les smartphones, ils recherchaient de plus en plus des entreprises et des objets lors de leurs déplacements.

Enfin, en 2015, nous avons eu l’Année du mobile – le moment où les recherches mobiles ont dépassé les recherches sur le bureau pour la première fois sur Google. Et si cela est vrai en termes de nombre de recherches brutes, il est également vrai que l’intention de recherche est très différente et que les taux de conversion restent beaucoup plus faibles sur les appareils mobiles.

C’est également l’année où comScore a signalé que les utilisateurs d’Internet uniquement mobile ont dépassé les utilisateurs d’Internet uniquement de bureau.

C’est également en 2015 que Google a lancé une mise à jour très attendue de l’algorithme convivial pour les mobiles, conçue pour donner aux utilisateurs “les résultats les plus pertinents et les plus opportuns, que l’information soit sur des pages web conviviales pour les mobiles ou dans une application mobile”.

Pour tenter d’accélérer les pages, Google a également introduit les pages mobiles accélérées (AMP) en 2016. Les AMP sont conçues pour charger instantanément du contenu et ont été adoptées principalement par les médias et les éditeurs.

Et il y a beaucoup plus de mobile à venir. Prochainement, un index des mobiles sera mis en place en 2018.

Apprentissage machine, IA et recherche intelligente

Tout à l’heure, j’ai mentionné que Google, initialement construit autour de la recherche d’informations, est devenu une entreprise qui privilégie le mobile. Eh bien, cela a changé en 2017 parce que le PDG de Google, Sundar Pichai, a déclaré que Google était une entreprise qui privilégiait l’intelligence artificielle.

Aujourd’hui, la recherche sur Google est conçue pour informer et aider, plutôt que de donner aux utilisateurs une liste de liens. C’est pourquoi Google a intégré l’IA dans tous ses produits – y compris la recherche, Gmail, AdWords, Google Assistant, et plus encore.

En termes de recherche, nous avons déjà commencé à voir l’impact de l’IA avec Google RankBrain. Annoncé en octobre 2015, RankBrain a été initialement utilisé pour tenter d’interpréter les 15 % de recherches que Google n’a jamais vues auparavant, en fonction des mots ou des phrases que l’utilisateur a saisis.

Depuis lors, Google a étendu RankBrain pour qu’il fonctionne sur toutes les recherches. Bien que RankBrain ait un impact sur le classement, il ne s’agit pas d’un facteur de classement au sens traditionnel du terme, où vous êtes récompensé par un meilleur classement pour avoir fait x, y et z.

Et il y aura bientôt beaucoup plus dans le monde de la recherche intelligente.

Les recherches vocales se multiplient. La recherche visuelle est devenue incroyablement bonne. Et les utilisateurs (et les marques) adoptent de plus en plus les chatbots et utilisent des assistants personnels (par exemple, Siri d’Apple, Alexa d’Amazon et Cortana de Microsoft).

Des temps passionnants sont à venir pour le référencement.

Conclusion

Les moteurs de recherche et le référencement ont fait beaucoup de chemin depuis les années 1990. Et nous n’avons abordé que quelques-unes de ces voies dans cet article.

L’histoire de l’OMR a connu des tournants passionnants : la naissance de nouveaux moteurs de recherche, la mort d’anciens moteurs de recherche, de nouvelles fonctionnalités du SERP, de nouveaux algorithmes et des mises à jour constantes, ainsi que l’émergence de grandes publications, conférences, outils et experts en OMR.

Si les moteurs de recherche et l’optimisation des moteurs de recherche ont beaucoup évolué au fil des ans, une chose reste vraie : tant qu’il y aura des moteurs de recherche, l’optimisation des moteurs de recherche restera vitale. Et nous n’en sommes qu’au début !

Définition du SEO : qu’est-ce que c’est ? Le SEO et pourquoi pas Search Engine Optimization est un levier clé du marketing web qui consiste à mettre au point la structure et le contenu texte d’un site web (et son environnement : les backlinks) pour que sa classification et son référencement sur les moteurs de recherche soient le plus efficace possible. Par “efficace”, j’entends que le SEO à envie d’obtenir de visibilité probable en réponse aux requêtes des internautes.