+237 655 214 000   |   contact@itiss-group.com

Setup Menus in Admin Panel

3. Historique du référencement web

Historique du référencement web

Avant Google : 1993 à 1998

Avec la mise à disposition au grand public d’Internet, les moteurs et annuaires de recherche (tels que Lycos et Infoseek par exemple) se développent. Ces moteurs sont très simples, mais correspondent aux attentes des utilisateurs de l’époque.Les principaux sites aux débuts d’internet sont entre autre Yahoo.com, Hotmail.com et Amazon.com.Les critères de pertinence pour les moteurs de recherche ne sont pas aussi nombreux et complexes qu’aujourd’hui, le critère majeur est tout simplement le nombre d’occurrences d’un mot dans un texte.A partir de 1996, les balises META font leur apparition. Les moteurs de recherches, comme Altavista se réfèrent de plus en plus aux mots clés pour répondre aux recherches des utilisateurs. Des webcrawler (sorte de petites araignées) parcourent le web à la recherche d’éléments sémantiques et de mots-clés répondant au mieux aux attentes des internautes.Le référencement étant à son début, les pratiques douteuses, comme le bourrage de mots clés ou les textes blancs sur fond blancs afin d’être mieux référencé, sont de plus en plus courantes.Ces moteurs sont vraiment basiques et ne permettent pas de trier réellement les résultats. Les techniques SEO sont encore approximatives ce qui influe sur la qualité et la pertinence des moteurs de recherche de l’époque.

 

Google ou la naissance d’un géant : 1999 – 2010

En 1999, Google fait son apparition et va évoluer lentement vers la suprématie sur les autres moteurs de recherche. Les critères dit « off-page » commencent à se développer et sont pris en compte par Google lors des recherches.Ces critères « off-page » sont des critères qui se basent sur la façon d’arriver sur un site. On parle de backlinks (liens entrants), ce sont des liens pointant vers votre site à partir d’autre sites. La popularité des sites sur lesquels se trouvent les liens pointant vers votre site est également prise en compte par Google.Avec l’apparition de Google et le début du SEO, le spam chute fortement. On assiste à la mise en place des bases du SEO actuel, avec comme principal critères les 4C : Code HTML, Conception, Contenu et Célébrité.

 

Code HTML

Le code HTML d’une page devient un critère important du SEO, afin de permettre aux moteurs de recherche de comprendre plus facilement de quoi parle votre page.L’utilisation des balises <H1> à <H6> permet de structurer le contenu de son site. La mise en gras de certains mots, grâce à la balise <strong> (préférée à la balise <b>), permet de mettre en valeur certains éléments importants du contenu.La balise <title> se doit également d’être bien structurée afin d’aider au référencement de sa page par Google. Il faut également penser à rédiger un contenu intéressant pour sa balise <meta description>, son contenu apparait sur les moteurs de recherches et permet à l’utilisateur de savoir de quoi parle votre page. Si son contenu est peu engageant, il est fort probable que l’utilisateur passe son chemin et ne clique pas sur votre lien.Les attributs alt dans les balises images de vos articles permettent aux personnes utilisant des logiciels de lecture d’écran, ou aux personnes ne pouvant pas afficher les images, d’avoir une description rapide des images de vos articles.Malgré ces avancées, les sites sont toujours aussi peu attractifs. Le balisage html des pages web reste approximatif. L’utilisation de balises de mise en avant, comme la balise <strong>, reste peu courante.Les balises demandent également une certaine cohérence entre elle. Les contenus des balises <h1> et <title> par exemple, se doivent d’être similaires, mais il ne faut pas forcément recopier le contenu de l’une dans l’autre.Avec les années, la meta description des pages passe de 150 caractères à environ 200/300 caractères aujourd’hui. On peut trouver des descriptions allant jusqu’à 400 caractères.

 

Conception

Afin d’être correctement référencé, un site se doit d’être « spider friendly », c’est-à-dire qu’il doit permettre aux robots de le parcourir facilement et rapidement.Pour ce faire, vous devez attribuer des URL parlantes (url indiquant clairement le type de contenu) à vos pages, elles doivent être assez courtes et contenir des mots-clés en rapport avec votre contenu.La création d’un fichier Sitemap XML permet d’indiquer rapidement aux robots les pages de votre site à explorer. Ce type de fichier répertorie toutes les pages de votre site, en y indiquant la dernière date de modification ainsi que l’importance de cette page.La mise en place d’un maillage interne important permet une meilleure navigation sur votre site. Le netlinking (échange de liens) permet également d’augmenter sa visibilité, surtout si l’échange se fait sans échange réciproque.Il faut penser à créer des ancres parlantes et descriptives. Les liens de type « cliquez ici » sont à éviter mais pas à bannir, car ils permettent de garder un profil naturel.Les noms de vos images sont également importants pour le référencement de votre page. Idéalement, ils doivent décrire brièvement l’image.Enfin, il ne faut pas oublier de faire des redirections définitives vers les nouvelles pages en cas de changement d’URL. Ces redirections évitent les problèmes de duplicate content (contenu dupliqué).Mais l’URL ne fait pas tout, trop d’importance lui est donnée, notamment par les débutants en SEO, alors que les balises types <h1> sont plus importantes !

 

Contenu

Pour que votre contenu soit pris en compte par les robots Google, il faut qu’il contienne au minimum 200 mots. Un contenu entre 800 et 1000 mots est souvent recommandé lorsqu’il s’agit d’actualités.Un des paramètres les plus importants pour le référencement de vos articles est sans doute la rapidité de mise à jour de vos articles. Plus le sujet sera chaud et d’actualité, plus la mise à jour en temps réel est importante, car le nombre de requêtes à ce sujet sera plus grand.Il faut également faire correspondre au maximum les requêtes des utilisateurs aux titres <h1> et <h2>, ainsi qu’au <title>, à l’URL et aux passages en gras.

 

Célébrité

Durant longtemps, la popularité d’un site était calculée grâce à des « Page Rank Tools ». Ces outils ont aujourd’hui disparu, mais la popularité d’un site reste importante.Pour augmenter la popularité de votre site, il était d’usage de miser sur les liens entrants (backlink), qui permettent de gagner de la crédibilité aux yeux de Google.A partir de 2010, on assiste à une professionnalisation du SEO et du spam.

 

Les nouveautés : 2011 – 2015

Orientations stratégiques

Google procède à la réorganisation de son index, plusieurs projets sont mis en place au fur et à mesure des années pour inspecter les sites : Caféine, Panda, Penguin, Hummingbird, Pigeon, Phantom, Bert, etc.

 

Algorithmes successifs de Google

Historique des projets Google depuis 2009

Caféine (2009) :Ce projet permet d’indexer plus de pages. Il indexe quasiment en temps réel les contenus, ce qui permet aux utilisateurs de bénéficier des contenus les plus récents et les plus en adéquation avec leurs requêtes.

Panda (2011) :Avec Panda, Google pénalise les contenus de faible qualité. Avant ce projet, les sites avaient tendances à écrire du contenu uniquement pour être mieux référencé, même si ce contenu ne proposait pas d’informations intéressantes pour le lecteur.

Penguin (2012) :Penguin a été mis en place pour lutter contre le SEO dit « Black-Hat » (pratiques de référencement non acceptées). Les pages contenant du spamdexing (référencement abusif), du keyword stuffing (bourrage de mots-clés) ou du cloaking (camouflage de contenu, le contenu est différent pour l’utilisateur et le crawler) se voient désindexées.

Hummingbird (2013) :Grâce à Hummingbird, ce ne sont plus que des mots qui sont pris en compte par Google, mais des concepts. Google répond à une vraie question posée par l’utilisateur. Par exemple, lorsqu’on cherche « Météo » dans Google, on a aujourd’hui les prévisions météo en temps réel, au lieu de pages de définitions. Le moteur de recherche est capable de détecter le sujet de la page. Lors de la recherche « Cars » par exemple, Google sera capable de savoir si les pages parlent de voitures ou du film, grâce aux mots utilisés dans l’article.Bien évidemment, la règle des 4C est toujours valable pour le référencement.

Nouvelles règles

En SEO, la tendance est plus au rajout qu’à la suppression. En 4 ans, de nombreuses règles et « façons de faire » ont été rajoutées :

Balises sémantiques :L’utilisation de balises sémantiques permet de renforcer la signification de certaines informations dans le contenu d’une page web. Il existe différentes balises comme par exemple la mise en valeur, la citation et l’emprunt, qui sont chacune unique, permettant ainsi aux agents Web une meilleure évaluation des contenus de vos pages et ainsi un meilleur classement lors des recherches.

L’utilisation de « rich snippet » (extrait enrichi en français) permet aux sites de se démarquer des autres sur la page de résultat d’un moteur de recherche. Ces « rich snippet » vous permettent de choisir la présentation de votre site, ainsi que des informations que vous souhaitez voir apparaitre, pour inciter l’utilisateur à cliquer sur votre lien plus que sur un autre.

Balises de pagination :Il s’agit des balises rel= »next » et rel= »prev », permettant de signaler un lien entre plusieurs URLs, lorsque par exemple vous avez un site marchand avec plusieurs pages de produits. Puisque le contenu de ces pages est sensiblement le même sur chacune d’elle, Google a besoin de ces balises pour comprendre et savoir quelle page afficher en premier résultat.

Balise new-keywords :Après l’arrêt des balises <meta name= »keywords »>, Google a décidé d’introduire la balise <meta name= »news_keywords »> qui permet à l’utilisateur de spécifier 10 mots-clés, contenus ou non dans son article, pour ses article apparaissant dans Google Actualités.

Balises meta

Avec le lancement de Google Plus en 2011, il était possible de mettre en place un lien entre ses articles et son profil Google Plus. Cette mise en lien, appelée Authorship, permet de créer un contenu enrichi de manière automatique. Votre photo de profil apparait sur les pages de résultat, ce qui a donné l’idée à certains de mettre des photos de profil attirante, afin d’avoir un meilleur trafic. Ces changements de photo de profil ont attiré l’attention de Google, qui a décidé de revoir sa réflexion sur l’Authorship et de supprimer les images de profil des pages de résultat des moteurs de recherche.

 

Virage vers le mobile

La compatibilité mobile fait également son entrée en jeu. Avec le nombre de plus en plus important de mobinautes, il est devenu crucial pour des sites de s’adapter à tous les écrans. Ces sites compatibles sont, en théorie, mieux classé sur Google. Cette adaptation est plus utile pour les mobinautes que pour Google.

Mobile friendly test

Figure 3: Illustration d’un mobile-friendly test

Il est possible de tester la compatibilité de son site grâce à WebmasterTool Mobile Friendly.Avec la mise en place de ces nouveaux algorithmes, Google surveille de plus en plus les contenus dupliqués. Il faut faire attention au contenu que l’on publie.Lorsqu’on choisit de publier du contenu identique sur plusieurs pages d’un même site ou sur plusieurs site, il faut absolument penser à insérer rel= »canonical » lorsque le lien de la page est utilisé. De cette manière, Google pourra faire la différence entre le contenu original et le contenu dupliqué, sans que vous risquiez de sanction.

 

Gestion du Black-Hat

La professionnalisation du Black-Hat, entraine un changement dans la politique de Google face au contenu caché. Dans le cas des onglets ou des accordéons, si le contenu se situe à un clic de l’utilisateur, il ne sera plus indexé par les robots Google. Il faut donc bien choisir la manière d’utiliser ces onglets ou ces accordéons. Une des solutions serait de laisser le contenu visible à l’utilisateur, afin qu’il puisse lui-même le cacher au cours de la visite de la page.La navigation à facette, permettant à l’utilisateur de sélectionner plusieurs critères de recherche, doit également être bien maitrisée. En effet, la multitude de pages web résultant de cette navigation peut rapidement embrouiller les crawler web, faisant passer votre page pour du spam.Le poids du nom de domaine n’est plus le critère le plus important. Lors d’une recherche avec des mots-clés, la richesse du contenu ainsi que la richesse de la sémantique sont pris en compte en priorité.Les EMD (Exact Match Domain) ne sont pas recommandé. Ces domaines contenant exactement les mots-clés d’une recherche sont souvent considéré comme du spam par Google. En effet, bon nombre de ces sites ont été créé dans l’unique but de faire de la publicité. Ce type de nom de domaine, bien qu’il ne soit plus avantagé par le SEO, n’est pas à bannir définitivement.L’utilisation des nouveau gTLD (Generic Top-level domain, ou domaine de premier niveau générique en français) n’aide pas non plus au référencement. De même pour les extensions en .biz (nom de domaine utilisé par les entreprises lorsque le domaine en .com est déjà reservé) qui sont mal vus par Google, car ils sont confondus avec des spam.L’ancre d’un lien, c’est-à-dire le texte sur lequel sera ajoutée l’url du site à atteindre, doit être optimisée. Il faut que cette ancre soit un mot-clé précis, menant à une page précise du site, page dont le contenu doit correspondre à votre sujet d’article.

 

SMO

L’impact des réseaux sociaux, bien que n’ayant aucun effet sur le référencement n’est pas à négliger. Il faut prendre en compte le fait que les utilisateurs des réseaux, tels que Facebook par exemple, sont des humains et non pas des robots. Les réflexes de SEO sont à oublier, place au SMO (Social Media Optimization). Et quand bien même Facebook ne fera jamais en sorte que votre site soit mieux classé, il reste très utile pour le nombre de visiteurs sur vos pages. Il ne faut pas non plus oublier que vos pages Facebook peuvent apparaitre dans les recherches Google, de quoi accroitre un peu plus votre visibilité.Du côté des réseaux sociaux, on assiste également au renouvellement du contrat entre Twitter et Google. Ce partenariat permet à Google de parcourir en direct Twitter afin d’accéder à la base de donnée des titres et donc de les afficher en temps réel.

 

Résumé

On constate effectivement qu’il y a eu de nombreux changements au fil du temps. Le référencement et le développement sont devenus beaucoup plus sérieux et professionnels, là où on utilisait auparavant des combines on voit apparaitre aujourd’hui de vraies professions reconnues.Avec tous ces changements et toutes ces évolutions, on peut se demander si il ne serait pas plus utile de revenir aux fondamentaux du SEO, qui fonctionnaient très bien, sans avoir besoin de toujours plus de balises, d’outils et de projet Google. L’essentiel était de savoir coder son site en HTML de manière correcte et de l’alimenter en contenu de manière régulière.Mais la plus grande étape à franchir en 2015 serait peut-être que les principes du SEO soient appliqués directement lors de la création du site. Car quel est l’intérêt par exemple d’avoir un site en https, si derrière les balises sémantiques sont de mauvaise qualité et ne sont pas optimisées ?

 

SEE ALL Add a note
YOU
Add your Comment

Related Courses Widget

Course

top
© ITISS Edu. Tous droits réservés.
X