Balise Noindex : explications SEO

Publié le

- par

Auteur : José

SEO technique

Noindex tag, quelques explications

Les directives « Noindex » demandent aux moteurs de recherche d’exclure une page de l’index, ce qui la rend inéligible dans les résultats de recherche.

Balises Meta Robots « Noindex » (sans index)

La façon la plus courante de demander aux moteurs de recherche de ne pas indexer une page est d’inclure une balise Meta Robots dans la balise <head> d’une page HTML avec une directive « noindex » comme ci-dessous :

<meta name= »robots » content= »noindex » />

Vers 2007, les principaux moteurs de recherche ont commencé à prendre en charge les directives « noindex » dans les balises Meta Robots. Les balises Meta Robots peuvent également inclure d’autres directives, comme la directive « follow » ou « nofollow », qui indique aux moteurs de recherche d’explorer ou non les liens trouvés sur la page actuelle.

En général, les webmestres utilisent cette directive  pour empêcher l’indexation de contenus qui ne sont pas destinés aux moteurs de recherche.

Voici quelques cas d’utilisation courants des directives « noindex » :

  • Pages contenant des informations sensibles
  • Pages de panier ou de caisse sur un site de commerce électronique
  • Versions alternatives de pages pour des tests A/B ou des tests fractionnés actifs
  • Versions de pages « Staging » (ou en cours de réalisation) qui ne sont pas encore prêtes à être utilisées par le public.
  • « En-têtes de réponse »

En outre, les moteurs de recherche prennent en charge cette directive  fournie par les en-têtes de réponse HTTP pour une page donnée. Bien que cette approche soit moins courante et plus difficile à identifier à l’aide des outils de référencement courants, il est parfois plus facile pour les ingénieurs ou les webmasters de l’inclure en fonction de la configuration de leur serveur.

Meilleures pratiques de référencement pour les directives « noindex »

  1. Évitez d’utiliser « noindex » sur des pages de valeur

L’inclusion accidentelle ou volontaire d’une balise ou d’une directive « noindex » sur une page de valeur peut entraîner la suppression de cette page des index des moteurs de recherche et l’arrêt de tout trafic organique. Cela n’est pas ce que nous recherchons pour ce type de page.

  1. Comprenez que « noindex » est finalement traité comme « nofollow ».

Les webmasters ont souvent utilisé des balises Meta Robots ou des en-têtes de réponse pour signaler aux moteurs de recherche que la page actuelle ne doit pas être indexée mais que les liens de la page doivent tout de même être explorés, comme avec la balise Meta Robots suivante :

<meta name= »robots » content= »noindex,follow » />

Cette méthode est couramment utilisée pour les pages de liste paginées. Par exemple, « noindex,follow » peut être appliqué aux listes d’archives d’un blog, pour empêcher les pages d’archives elles-mêmes d’apparaître dans les résultats de recherche mais permettre aux moteurs de recherche d’explorer, d’indexer et de classer les articles du blog eux-mêmes.

Cependant, cette approche peut ne pas fonctionner comme prévu, car Google a expliqué que ses systèmes finissent par traiter une directive « noindex,follow » comme un « noindex,nofollow » – en d’autres termes, ils finiront par arrêter l’exploration des liens sur toute page avec une directive « noindex ». Cela peut empêcher les pages de destination des liens d’être indexées du tout ou réduire leur PageRank ou leur autorité, abaissant ainsi leur rang pour les mots clés pertinents.

  1. Évitez d’utiliser les règles « noindex » dans les fichiers Robots.txt

Bien qu’elles n’aient jamais été officiellement prises en charge, les moteurs de recherche ont respecté pendant un certain temps les directives « noindex » dans les règles robots.txt. Comme les règles robots.txt avec caractères génériques peuvent s’appliquer à de nombreuses pages à la fois sans qu’il soit nécessaire de modifier les pages elles-mêmes, cette méthode a été préférée par de nombreux webmasters. Google ne recommande pas cette utilisation des fichiers robots.txt pour définir des directives « noindex » et a retiré le code qui prenait en charge ces règles en septembre 2019.

Auteur : José

Perez

Consultant SEO pendant plus de 17 ans auprès d'une agence web, José est un véritable expert du SEO. Chaque jour, il met son expertise technique au service des clients afin d'améliorer le référencement naturel de leurs sites.