en 2018; Internet compterait déjà près de 1,4 milliard de sites web, qui peuvent héberger une seule page ou compter chacun plusieurs dizaine de millions d’URL.
Pourtant, lorsque vous effectuez une recherche ligne , vous attendez généralement moins d’une demi-seconde pour obtenir des résultats. Vous vous doutez bien de Google ne peut pas parcourir web en temps réel, quand il faut parfois plusieurs secondes pour afficher une seule page : chaque recherche prendrait des mois et des mois !

Comprendre la nation d’indexation

Google et les autres moteurs ont une astuces pour aller aussi vite : ils stockent les contenus dans des data centres et les proposent ensuite dans leurs résultats de recherche . Imaginez des salles immenses remplies ,des serveurs. Sur des disques durs à perte de vue sont stockées des certaines de millions de pages web et d’autres fichiers ( image , pdf ….) . Ces contenus ont déjà été décortiqués par les algorithmes qui savent précisément leurs pertinence pour tel ou tel mot-clé ,avant même que vous n’effectuiez votre recherche .
L’indexation est donc la première étape de toute stratégie de référencement.
Etre indexé sur Google revient à figurer dans la catalogue d’une centrale d’achats dans la grande distribution : vous n’avez au moins, une chance de finir en rayon . Obtenir une excellente indexation de votre site web ne vous garantit pas la première page : en revanche , c’ est une étape préalable pour réussir ensuite son référencement !

L’étape du crawl et les robots d’indexation

Vous vous doutez bien que Google n’a pas embauché une armée de plusieurs millions de petites mains pour visiter les sites qu’il souhaite proposer dans ses résultats de recherche. Ce serait comme vouloir vider l’océan avec cent millions de petites cuillères.
A la place , les moteurs de recherche ont créé de petits programmes qui se chargent de naviguer d’ une page à l’autre .ON les appelle des robots d’indexation ( bots en anglais ) et chacun possède son petit nom : le plus connu est Googlebot , mais vous pourriez rencontrer Bing Bot ou YandexBot… les moteurs déclinent souvent leurs robots en fonction des contenus ciblés : Googlebot-images pour les images , Googlebot-Vidéo pour les vidéos ,
etc .
Ces robots utilisent essentiellement les liens hypertextes présents sur vos pages web pour explorer l’ensemble de votre site .ils peuvent aussi s’appuyer sur ficher spécifique,le sitemap , qui liste l’ensemble des URL que vous désirez indexer .
le processus de visite de vos pages et documents est appelée crawl: ce processus d’exploration est l’étapes préalable à l’indexation . En effet , si un contenu n’est pas visité , comment pourrait-il être indexé?

Faciliter l’indexation de son site

Le premier rôle d’un référenceur consiste à aider les différents robots d’indexation dans la découverte d’un site . Vous devez en premier lieu favoriser un crawl optimal de votre site .
Puisque les robots d’indexation naviguent d’une page à l’autre en utilisant les liens hypertexte , vous pouvez les aider en organisant au mieux votre menu et en créant des liens dans vos textes . vous devez aussi éviter les pages orphelines , qui doit en effet d’aucun lien : chaque page destinée à être positionnée sur Google doit en effet être maillée à un moment donné dans votre site .
D’autres éléments sont essentiels à pour une indexation de qualité , et nous leurs consacrons un chapitre dans cet ouvrage :

  • Un code source et compris par les moteurs de recherche
  • Un fichier robots.txt et des balises pour n’indexer que les bons contenus ;
  • Un fichier sitemap.xml qui liste les URL à indexer ;
  • Un lsite optimisé pour un affichage mobile ;
  • Un site rapide et sans codes HTTP renvoyant à des erreurs …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *