+237 655 214 000   |   contact@itiss-group.com

Setup Menus in Admin Panel

PARTIE A : INTRODUCTION

Définitions

De manière littérale, référencer un site sur le web, c’est faire l’inscrire dans l’index d’un moteur de recherche, pour qu’il soit présent dans les résultats de recherche ce moteur (quelle que soit la position d’affichage du site dans lesdits résultats).

Exemple :

 

Inscription d'un site dans l'index du moteur de recherche

Illustration du sens littéral du référencement web

 

Dans la pratique, le terme référencement (web) est utilisé pour renvoyer à la notion de positionnement. Le positionnement est l’ensemble des actions que l’on entreprend pour qu’un site ou une page web bénéficie de la meilleure place possible dans les résultats sur un moteur de recherche.

 

Enjeux du référencement web

Internet est un marché de plus 3 milliards de prospects (42% de la population de personnes physiques) répartis dans le monde entier avec peu ou pas de frontières :

  • 81% en Amérique du Nord (86% au Canada, 80% aux USA)
  • 78% en Europe de l’Ouest (83% en France)
  • 18% en Afrique
  • 12% en Asie du Sud

 

La question de la nécessité pour toute entreprise sérieuse d’avoir une stratégie digitale ne se pose plus, celle actuelle est d’avoir sur internet une présence suffisamment significative pour être un facteur de croissance de l’activité en générant des ventes non seulement en ligne mais aussi hors ligne.

 

Dans l’environnement hautement concurrentiel qu’est internet, il est vital pour une entreprise d’être présente dans les outils de recherche, de figurer au minimum à côté de ses concurrents, voire devant eux, pour générer de nouveaux contacts, attirer de nouveaux clients et développer son image. Ce positionnement est loin d’être acquis, il existe aujourd’hui plus d’un milliard de sites web, d’où la nécessité du référencement web. Il est une arme devenue stratégique dans la bataille pour l’acquisition ou la fidélisation des clients. Ces derniers sont répartis dans le monde entier, mais utilisent les mêmes sources de recherche d’information pour choisir leurs services/produits.

  • Jusqu’à 80% du trafic d’un site peut provenir des outils de recherche ;
  • Les 10 premiers résultats reçoivent 80% de trafic par rapport aux pages 2 & 3 ;
  • Plus de 60 % des recherches s’effectuent sur plus de 2 mots-clefs.

 

Les effets d’une stratégie de référencement web efficace sont nombreux, avec pour finalité l’accroissement du chiffre d’affaires.

  • La création du trafic, d’où une réduction des coûts d’acquisition des nouveaux internautes et/ou clients et augmentation de la notoriété du site
  • La réduction des coûts publicitaires
  • La suppression de la discrimination : une PME a autant de poids et de chance qu’une multinationale de figurer parmi les premiers résultats des outils de recherche.
  • Plus grande efficacité des politiques de communication : les visiteurs provenant des moteurs sont le plus souvent de nouveaux visiteurs qui ne connaissaient pas l’entreprise avant de l’avoir trouvée.

 

Au final, moins une entreprise ou un site a une notoriété spontanée, plus le référencement est important, puisqu’il est susceptible de devenir le principal canal de recrutement de nouveaux visiteurs/clients.

 

Historique du référencement web

Avant Google : 1993 à 1998

Avec la mise à disposition au grand public d’Internet, les moteurs et annuaires de recherche (tels que Lycos et Infoseek par exemple) se développent. Ces moteurs sont très simples, mais correspondent aux attentes des utilisateurs de l’époque.

Les principaux sites aux débuts d’internet sont entre autre Yahoo.com, Hotmail.com et Amazon.com.

Les critères de pertinence pour les moteurs de recherche ne sont pas aussi nombreux et complexes qu’aujourd’hui, le critère majeur est tout simplement le nombre d’occurrences d’un mot dans un texte.

A partir de 1996, les balises META font leur apparition. Les moteurs de recherches, comme Altavista se réfèrent de plus en plus aux mots clés pour répondre aux recherches des utilisateurs. Des webcrawler (sorte de petites araignées) parcourent le web à la recherche d’éléments sémantiques et de mots-clés répondant au mieux aux attentes des internautes.

Le référencement étant à son début, les pratiques douteuses, comme le bourrage de mots clés ou les textes blancs sur fond blancs afin d’être mieux référencé, sont de plus en plus courantes.

Ces moteurs sont vraiment basiques et ne permettent pas de trier réellement les résultats. Les techniques SEO sont encore approximatives ce qui influe sur la qualité et la pertinence des moteurs de recherche de l’époque.

 

Google ou la naissance d’un géant : 1999 – 2010

En 1999, Google fait son apparition et va évoluer lentement vers la suprématie sur les autres moteurs de recherche. Les critères dit « off-page » commencent à se développer et sont pris en compte par Google lors des recherches.

Ces critères « off-page » sont des critères qui se basent sur la façon d’arriver sur un site. On parle de backlinks (liens entrants), ce sont des liens pointant vers votre site à partir d’autre sites. La popularité des sites sur lesquels se trouvent les liens pointant vers votre site est également prise en compte par Google.

Avec l’apparition de Google et le début du SEO, le spam chute fortement. On assiste à la mise en place des bases du SEO actuel, avec comme principal critères les 4C : Code HTML, Conception, Contenu et Célébrité.

  • Code HTML

Le code HTML d’une page devient un critère important du SEO, afin de permettre aux moteurs de recherche de comprendre plus facilement de quoi parle votre page.

L’utilisation des balises <H1> à <H6> permet de structurer le contenu de son site. La mise en gras de certains mots, grâce à la balise <strong> (préférée à la balise <b>), permet de mettre en valeur certains éléments importants du contenu.

La balise <title> se doit également d’être bien structurée afin d’aider au référencement de sa page par Google. Il faut également penser à rédiger un contenu intéressant pour sa balise <meta description>, son contenu apparait sur les moteurs de recherches et permet à l’utilisateur de savoir de quoi parle votre page. Si son contenu est peu engageant, il est fort probable que l’utilisateur passe son chemin et ne clique pas sur votre lien.

Les attributs alt dans les balises images de vos articles permettent aux personnes utilisant des logiciels de lecture d’écran, ou aux personnes ne pouvant pas afficher les images, d’avoir une description rapide des images de vos articles.

Malgré ces avancées, les sites sont toujours aussi peu attractifs. Le balisage html des pages web reste approximatif. L’utilisation de balises de mise en avant, comme la balise <strong>, reste peu courante.

Les balises demandent également une certaine cohérence entre elle. Les contenus des balises <h1> et <title> par exemple, se doivent d’être similaires, mais il ne faut pas forcément recopier le contenu de l’une dans l’autre.

Avec les années, la meta description des pages passe de 150 caractères à environ 200/300 caractères aujourd’hui. On peut trouver des descriptions allant jusqu’à 400 caractères.

 

  • Conception

Afin d’être correctement référencé, un site se doit d’être « spider friendly », c’est-à-dire qu’il doit permettre aux robots de le parcourir facilement et rapidement.

Pour ce faire, vous devez attribuer des URL parlantes (url indiquant clairement le type de contenu) à vos pages, elles doivent être assez courtes et contenir des mots-clés en rapport avec votre contenu.

La création d’un fichier Sitemap XML permet d’indiquer rapidement aux robots les pages de votre site à explorer. Ce type de fichier répertorie toutes les pages de votre site, en y indiquant la dernière date de modification ainsi que l’importance de cette page.

La mise en place d’un maillage interne important permet une meilleure navigation sur votre site. Le netlinking (échange de liens) permet également d’augmenter sa visibilité, surtout si l’échange se fait sans échange réciproque.

Il faut penser à créer des ancres parlantes et descriptives. Les liens de type « cliquez ici » sont à éviter mais pas à bannir, car ils permettent de garder un profil naturel.

Les noms de vos images sont également importants pour le référencement de votre page. Idéalement, ils doivent décrire brièvement l’image.

Enfin, il ne faut pas oublier de faire des redirections définitives vers les nouvelles pages en cas de changement d’URL. Ces redirections évitent les problèmes de duplicate content (contenu dupliqué).

Mais l’URL ne fait pas tout, trop d’importance lui est donnée, notamment par les débutants en SEO, alors que les balises types <h1> sont plus importantes !

 

  • Contenu

Pour que votre contenu soit pris en compte par les robots Google, il faut qu’il contienne au minimum 200 mots. Un contenu entre 800 et 1000 mots est souvent recommandé lorsqu’il s’agit d’actualités.

Un des paramètres les plus importants pour le référencement de vos articles est sans doute la rapidité de mise à jour de vos articles. Plus le sujet sera chaud et d’actualité, plus la mise à jour en temps réel est importante, car le nombre de requêtes à ce sujet sera plus grand.

Il faut également faire correspondre au maximum les requêtes des utilisateurs aux titres <h1> et <h2>, ainsi qu’au <title>, à l’URL et aux passages en gras.

 

  • Célébrité

Durant longtemps, la popularité d’un site était calculée grâce à des « Page Rank Tools ». Ces outils ont aujourd’hui disparu, mais la popularité d’un site reste importante.

Pour augmenter la popularité de votre site, il était d’usage de miser sur les liens entrants (backlink), qui permettent de gagner de la crédibilité aux yeux de Google.

A partir de 2010, on assiste à une professionnalisation du SEO et du spam.

 

 

Les nouveautés : 2011 – 2015

  • Orientations stratégiques

Google procède à la réorganisation de son index, plusieurs projets sont mis en place au fur et à mesure des années pour inspecter les sites : Caféine, Panda, Penguin et Hummingbird.

 

Historique des évolutions de Google

 Historique des projets Google depuis 2009

Caféine (2009) :

Ce projet permet d’indexer plus de pages. Il indexe quasiment en temps réel les contenus, ce qui permet aux utilisateurs de bénéficier des contenus les plus récents et les plus en adéquation avec leurs requêtes.

Panda (2011) :

Avec Panda, Google pénalise les contenus de faible qualité. Avant ce projet, les sites avaient tendances à écrire du contenu uniquement pour être mieux référencé, même si ce contenu ne proposait pas d’informations intéressantes pour le lecteur.

Penguin (2012) :

Penguin a été mis en place pour lutter contre le SEO dit « Black-Hat » (pratiques de référencement non acceptées). Les pages contenant du spamdexing (référencement abusif), du keyword stuffing (bourrage de mots-clés) ou du cloaking (camouflage de contenu, le contenu est différent pour l’utilisateur et le crawler) se voient désindexées.

Hummingbird (2013) :

Grâce à Hummingbird, ce ne sont plus que des mots qui sont pris en compte par Google, mais des concepts. Google répond à une vraie question posée par l’utilisateur. Par exemple, lorsqu’on cherche « Météo » dans Google, on a aujourd’hui les prévisions météo en temps réel, au lieu de pages de définitions. Le moteur de recherche est capable de détecter le sujet de la page. Lors de la recherche « Cars » par exemple, Google sera capable de savoir si les pages parlent de voitures ou du film, grâce aux mots utilisés dans l’article.

Bien évidemment, la règle des 4C est toujours valable pour le référencement.

  • Nouvelles règles

En SEO, la tendance est plus au rajout qu’à la suppression. En 4 ans, de nombreuses règles et « façons de faire » ont été rajoutées :

Balises sémantiques :

L’utilisation de balises sémantiques permet de renforcer la signification de certaines informations dans le contenu d’une page web. Il existe différentes balises comme par exemple la mise en valeur, la citation et l’emprunt, qui sont chacune unique, permettant ainsi aux agents Web une meilleure évaluation des contenus de vos pages et ainsi un meilleur classement lors des recherches.

L’utilisation de « rich snippet » (extrait enrichi en français) permet aux sites de se démarquer des autres sur la page de résultat d’un moteur de recherche. Ces « rich snippet » vous permettent de choisir la présentation de votre site, ainsi que des informations que vous souhaitez voir apparaitre, pour inciter l’utilisateur à cliquer sur votre lien plus que sur un autre.

Balises de pagination :

Il s’agit des balises rel= »next » et rel= »prev », permettant de signaler un lien entre plusieurs URLs, lorsque par exemple vous avez un site marchand avec plusieurs pages de produits. Puisque le contenu de ces pages est sensiblement le même sur chacune d’elle, Google a besoin de ces balises pour comprendre et savoir quelle page afficher en premier résultat.

Balise new-keywords :

Après l’arrêt des balises <meta name= »keywords »>, Google a décidé d’introduire la balise <meta name= »news_keywords »> qui permet à l’utilisateur de spécifier 10 mots-clés, contenus ou non dans son article, pour ses article apparaissant dans Google Actualités.

Balise new_keywords

Avec le lancement de Google Plus en 2011, il était possible de mettre en place un lien entre ses articles et son profil Google Plus. Cette mise en lien, appelée Authorship, permet de créer un contenu enrichi de manière automatique. Votre photo de profil apparait sur les pages de résultat, ce qui a donné l’idée à certains de mettre des photos de profil attirante, afin d’avoir un meilleur trafic. Ces changements de photo de profil ont attiré l’attention de Google, qui a décidé de revoir sa réflexion sur l’Authorship et de supprimer les images de profil des pages de résultat des moteurs de recherche.

  • Virage vers le mobile

La compatibilité mobile fait également son entrée en jeu. Avec le nombre de plus en plus important de mobinautes, il est devenu crucial pour des sites de s’adapter à tous les écrans. Ces sites compatibles sont, en théorie, mieux classé sur Google. Cette adaptation est plus utile pour les mobinautes que pour Google.

Compatibilité avec le mobile

Illustration d’un test de compatibilité avec le mobile

Il est possible de tester la compatibilité de son site grâce à WebmasterTool Mobile Friendly.

Avec la mise en place de ces nouveaux algorithmes, Google surveille de plus en plus les contenus dupliqués. Il faut faire attention au contenu que l’on publie.

Lorsqu’on choisit de publier du contenu identique sur plusieurs pages d’un même site ou sur plusieurs site, il faut absolument penser à insérer rel= »canonical » lorsque le lien de la page est utilisé. De cette manière, Google pourra faire la différence entre le contenu original et le contenu dupliqué, sans que vous risquiez de sanction.

  • Gestion du Black-Hat

La professionnalisation du Black-Hat, entraine un changement dans la politique de Google face au contenu caché. Dans le cas des onglets ou des accordéons, si le contenu se situe à un clic de l’utilisateur, il ne sera plus indexé par les robots Google. Il faut donc bien choisir la manière d’utiliser ces onglets ou ces accordéons. Une des solutions serait de laisser le contenu visible à l’utilisateur, afin qu’il puisse lui-même le cacher au cours de la visite de la page.

La navigation à facette, permettant à l’utilisateur de sélectionner plusieurs critères de recherche, doit également être bien maitrisée. En effet, la multitude de pages web résultant de cette navigation peut rapidement embrouiller les crawler web, faisant passer votre page pour du spam.

Le poids du nom de domaine n’est plus le critère le plus important. Lors d’une recherche avec des mots-clés, la richesse du contenu ainsi que la richesse de la sémantique sont pris en compte en priorité.

Les EMD (Exact Match Domain) ne sont pas recommandé. Ces domaines contenant exactement les mots-clés d’une recherche sont souvent considéré comme du spam par Google. En effet, bon nombre de ces sites ont été créé dans l’unique but de faire de la publicité. Ce type de nom de domaine, bien qu’il ne soit plus avantagé par le SEO, n’est pas à bannir définitivement.

L’utilisation des nouveau gTLD (Generic Top-level domain, ou domaine de premier niveau générique en français) n’aide pas non plus au référencement. De même pour les extensions en .biz (nom de domaine utilisé par les entreprises lorsque le domaine en .com est déjà reservé) qui sont mal vus par Google, car ils sont confondus avec des spam.

L’ancre d’un lien, c’est-à-dire le texte sur lequel sera ajoutée l’url du site à atteindre, doit être optimisée. Il faut que cette ancre soit un mot-clé précis, menant à une page précise du site, page dont le contenu doit correspondre à votre sujet d’article.

  • SMO

L’impact des réseaux sociaux, bien que n’ayant aucun effet sur le référencement n’est pas à négliger. Il faut prendre en compte le fait que les utilisateurs des réseaux, tels que Facebook par exemple, sont des humains et non pas des robots. Les réflexes de SEO sont à oublier, place au SMO (Social Media Optimization). Et quand bien même Facebook ne fera jamais en sorte que votre site soit mieux classé, il reste très utile pour le nombre de visiteurs sur vos pages. Il ne faut pas non plus oublier que vos pages Facebook peuvent apparaitre dans les recherches Google, de quoi accroitre un peu plus votre visibilité.

Du côté des réseaux sociaux, on assiste également au renouvellement du contrat entre Twitter et Google. Ce partenariat permet à Google de parcourir en direct Twitter afin d’accéder à la base de donnée des titres et donc de les afficher en temps réel.

  • Résumé

On constate effectivement qu’il y a eu de nombreux changements au fil du temps. Le référencement et le développement sont devenus beaucoup plus sérieux et professionnels, là où on utilisait auparavant des combines on voit apparaitre aujourd’hui de vraies professions reconnues.

Avec tous ces changements et toutes ces évolutions, on peut se demander si il ne serait pas plus utile de revenir aux fondamentaux du SEO, qui fonctionnaient très bien, sans avoir besoin de toujours plus de balises, d’outils et de projet Google. L’essentiel était de savoir coder son site en HTML de manière correcte et de l’alimenter en contenu de manière régulière.

Mais la plus grande étape à franchir en 2015 serait peut-être que les principes du SEO soient appliqués directement lors de la création du site. Car quel est l’intérêt par exemple d’avoir un site en https, si derrière les balises sémantiques sont de mauvaise qualité et ne sont pas optimisées ?

 

Perspectives

Le web sémantique

Panda et Penguin seront encore présents et surement améliorés ! Panda s’occupe des contenus à faible valeur ajoutée, tandis que Penguin pénalisera votre site en fonction de son optimisation.

« Content is king » (le contenu est roi) n’est plus suffisant. Un contenu rédigé uniquement dans le but de combler de l’espace ne sera plus pris en compte. Il faut que le contenu soit adapté au contexte. Le site doit être adapté à tous les types d’écrans et de support. Son contenu doit être de valeur, compréhensible et conversationnel, dans le sens où le contenu de votre site doit répondre à une question de l’utilisateur et non pas simplement apporter une information hors-contexte.

On entre entièrement dans l’ère du web sémantique, il ne s’agit plus seulement des mots, mais du sens derrière ces mots.

Grâce à l’algorithme Hummingbird (Colibri), on entre dans la recherche conversationnelle. Google ne fournit plus uniquement des liens, il fournit des réponses aux utilisateurs. Grace au Knowledge Graph de Google, vos réponses ne correspondent plus uniquement à des liens sans rapport. Par exemple, Michael Jackson n’est plus uniquement un mot-clé utilisé par Google pour trouver des résultats, c’est une vraie entité. Grâce au Knowledge Graph, un lien est fait entre le nom de la personne et ses œuvres. Le Knowledge Graph permet également d’afficher des extraits de chanson, les résultats météo en temps réel, des lieux sur Google Maps, …

Les recherches vocales sont de plus en plus nombreuses, les moteurs de recherches s’adaptent au langage naturel, c’est en quelque sorte la mort des mots-clés. Par exemple, on ne cherchera plus « Pharmacie Yaoundé », mais « Quel est la pharmacie la plus proche ». Les requêtes sont plus longues et contiennent moins de mots-clés.

Google est également capable de comprendre le contexte et les intentions, par exemple la recherche « Où trouver un vidéoprojecteur » donnera les mêmes résultats que la recherche « Location de vidéoprojecteur ». Hummingbird devient compétant pour la compréhension du langage oral.

 

Le knowledge graph

Il est important d’optimiser son contenu pour que le Knowledge Graph puisse y trouver plus rapidement et facilement les informations qu’il recherche. Le résultat doit être interactif et engageant pour l’utilisateur.

Knowledge graph

Le Knowledge Graph se base sur Freebase, Wikidata et Wikipédia, il est donc utile pour que votre contenu soit mieux classé, de créer des fiches sur ces sites (surtout lorsqu’il s’agit de faits historiques et de dates importantes).

Toutes ces données peuvent être regroupées grâce à schema.org, qui normalise les données, permettant à Google de savoir exactement où chercher les informations. Les attributs Itemscope, Itemtype et Itemprop indiquerons respectivement que la page est balisée, de quel type de balisage il s’agit, et la propriété. Il faut respecter le format fourni par schema.org.

Il faut alors remplir le plus de champs possible, afin de fournir le plus de renseignements possible.

 

Les objets connectés

L’arrivée des objets connectés et de l’expansion d’internet à des objets et des lieux du monde physique bouleverse le paysage SEO.

Objets connectés

Google Now et Android Wear se sont développés pour répondre aux nouveaux besoins des utilisateurs d’appareil mobile. Grâce à Google Now, vous disposez d’un assistant personnel portable sous la forme d’une application mobile, répondant à vos requêtes écrites ou vocales. Android Wear a été développé en réponse à l’apparition des smart Watch et autres « wearable » (technologies portables), il intègre la technologie de Google Now et l’adapte au format des montres connectées.

 

Le balisage

Lorsque votre page apparait dans les résultats de recherches, il est possible que le fil d’Ariane permettant d’accéder à votre page apparaisse à la place de l’URL. Il est possible de tester ce balisage dans Google Developpers, afin de vérifier que les données sont bien comprises par Google. Ce test est possible grâce aux sous-formats utilisés par Google Developpers, tels que JSON et XML, qui sont en quelque sorte des langages universels.

 

La personnalisation

La personnalisation de contenu devient également un critère important. Le contexte de recherche, la localisation et les habitudes sont pris en compte par Google.

Grâce au paramètre des annonces Google, il est possible de rentrer des informations personnelles (sexe, âges, centres d’intérêt), afin de permettre aux annonces de mieux nous cibler.

Google Maps procède à un suivi de vos positions depuis votre smartphone. Ce qui revient à dire que vous êtes géo localisé à chaque instant. La notion de données personnelles est quelque peu obsolète pour Google.

Leviers de référencement : SEO, SMO, SEA, SEM

SEO : Search Engine Optimization

Le SEO correspond au référencement naturel. Il est utilisé pour faire apparaître un site ou des pages web dans les premiers résultats de recherche naturels des moteurs de recherche comme Google. Ces résultats, présentés sous forme de liens dits « organiques » (car provenant d’algorithme natif du moteur), sont dits « naturels » parce qu’aucun processus publicitaire n’intervient dans leur classement.

Le SEO prendra en compte différents éléments : balises HTML, contenu optimisé et pertinent, liens externes etc…

 

SEO

Liens organiques

SMO : Social Media Optimization

Le SMO correspond à l’ensemble des techniques et actions destinées à développer la visibilité et l’image d’un site web ou d’une marque sur les réseaux sociaux. Le SMO comprend des éléments propres au référencement (optimiser le référencement des vidéos sur YouTube), au marketing viral (partage des actualités via les médias sociaux), à la création de contenus (pages Facebook, rédaction sur les blogs…) et à la gestion de l’e-réputation.

Le SMO (via la popularité des contenus postés sur les réseaux sociaux) permet également d’améliorer les résultats du SEO.

 

SEA : Search Engine Advertisement

Le SEA regroupe les activités de référencement dit payant. Il a pour objectif de faire apparaitre le site référencé sur les emplacements réservés aux liens dits sponsorisés de la page d’affichage des résultats de recherche d’un moteur.

SEA

 Liens sponsorisés

  1. SEM : Search Engine Marketing our SM (Search Marketing)

Le SEM désigne l’ensemble des actions marketing pour améliorer le référencement d’un site, que ces actions induisent ou pas un paiement.

En résumé :

SEM = SEA + SEO

Par extension :

SEM = SEA + SEO + SMO

SEE ALL Add a note
YOU
Add your Comment

Related Courses Widget

Course

top
© ITISS Edu. Tous droits réservés.
X