Malgré le temps passant et l’évolution des techniques de référencement naturel, l’une des tâches prépondérantes qui incombe toujours au référenceur est la gestion de l’accessibilité du ou des sites dont il a la charge. Par accessibilité, on entend l’ensemble des éléments d’ordre technique qui doivent être régulièrement analysés de façon à garantir la bonne lecture (crawl) et indexation des pages par les robots des moteurs.

Restez maître de votre indexation !

Ce n’est pas faute de le rappeler, pour qu’un site ait un maximum de chances de bien se positionner dans les pages de résultats, il faut avant tout qu’il soit techniquement optimisé. Dans cette optique, il est indispensable de veiller sur l’état de son indexation, ce pourquoi les Outils pour les Webmasters de Google sont très pratiques.

Rappel : L’indexation est une problématique récurrente en SEO pour la simple et bonne raison que c’est par là que tout commence. En effet, avant de prétendre aux premières positions, il faut que les pages que l’on cherche à faire remonter soient bien répertoriées dans l’index de Google. Si celui-ci parcours quoi qu’il en soit un site de sa propre initiative, il est nécessaire de l’orienter en mettant en œuvre différentes actions. Celles-ci permettront d’éviter la remontée de pages « indésirables » et de corriger d’éventuelles erreurs néfastes tant pour les robots que pour les internautes.

Déceler les erreurs et les corriger

La section « Erreurs d’exploration » est capitale. C’est dans celle-ci que sont présentées les pages comportant des erreurs ainsi que le code correspondant. La plus fréquente est incontestablement l’erreur 404, code retourné lorsqu’une page n’existe pas, ou plus. Une fois les pages erronées identifiées, la mission du référenceur consiste à corriger/supprimer le lien source, s’il s’agit de pages internes, ou à mettre en place une redirection, si le lien provient d’un site tiers.

Rappel : Les erreurs d’exploration doivent absolument être corrigées rapidement afin de ne pas allouer inutilement le « capital crawl » d’un site.

Blocage d’URLs via le fichier robots.txt

Comme expliqué précédemment, il est souvent intéressant de renseigner à Google des répertoires, pages ou tout simplement fichiers que l’on ne souhaite pas voir indexés, soit par mesure de sécurité, par exemple pour une interface d’administration, soit tout simplement parce qu’ils n’ont aucun intérêt pour les visiteurs. Le renseignement de chacun d’entre eux peut se faire, entre autre, via la création d’un fichier robots.txt qu’il vous sera possible de tester dans la section « URL bloquées » des Webmaster Tools.

Gestion des fichiers sitemaps XML

Pour gérer l’indexation d’un site, il ne faut pas se contenter de bloquer des URLs. Il est au contraire indispensable de proposer aux moteurs toutes celles que l’on juge intéressantes en leur soumettant un ou plusieurs fichiers sitemaps. Contrairement à ce qu’on pourrait penser, ce fichier ne favorise pas le référencement. Il a uniquement pour vocation d’indiquer les URLs, souvent profondes, que leurs robots n’auraient pas visité d’amblée et donc pas indexé instinctivement.

La section « Sitemaps » des Webmaster Tools permet de vérifier la bonne configuration du ou des fichiers sitemaps d’un site. Elle est d’autant plus utile qu’elle indique la cause des erreurs souvent rencontrées lors de l’exploration de ce type de fichiers. Il est effectivement fréquent que des URLs spécifiées dans un sitemap génèrent des erreurs parce qu’elles sont parallèlement bloquées par le robots.txt et/ou une balise meta. Outre les erreurs dont fait état Google, il est recommandé de garder un œil sur le ratio Date d’envoi/Dans l’index.

 

Gestion des paramètres d’URL

Cette section s’adresse principalement aux webmasters et référenceurs intervenants sur des sites dynamiques. Lors du passage des robots de Google sur une page, ceux-ci sont en mesure de déterminer la structure de son URL, et de lister les paramètres qui s’y trouvent dans un tableau qui peut également être complété manuellement. C’est par exemple le cas des URLs générées suite à l’utilisation de filtres sur les sites marchands. La plupart d’entre elles comportent des paramètres distincts pour une classification par prix, par taille, par couleur…

L’intérêt de ce tableau réside dans les options à appliquer pour chaque paramètre, certains étant responsables de problèmes plus ou moins importants de duplication de contenu. Dans ce cas, Google propose différentes alternatives pouvant aller jusqu’au blocage de l’exploration.

Attention, avant de bloquer l’indexation des URLs comportant un paramètre donné, il faut être sûr qu’il a un impact sur le contenu et que certaines de ses valeurs ne correspondent pas en réalité à une page unique. En cas de doute, mieux vaut laisser carte-blanche à Google, et se rapprocher d’un professionnel.