Utilisez votre remise Black Friday jusqu'au 4 décembreEn savoir plus

Robots.txt Test

Vérifiez votre fichier robots.txt pour vous assurer que les robots peuvent explorer correctement le site
Saisissez les URL pour tester si elles ne sont pas bloquées par votre fichier robots.txt
Il semble que vous n'ayez pas de fichier robots.txt
Il semble que certains domaines de votre liste d'URL n'aient pas de fichiers robots.txt
Veuillez ajouter une URL valide
Some of user agents have invalid or non-standard name
Invalid or non-standard user agent name
More than 100 URLs
Résultats
URL
Bot
Votre fichier robots.txt
Votre fichier robots.txt

Testez vos robots.txt et sitemap.xml pour détecter d'éventuels problèmes d'exploration

Voir des conseils détaillés et faciles à suivre

Website audit

Comment lire un fichier robots.txt?

User-agent
Allow
Disallow
User-agent
Cette directive identifie un robot spécifique (ou tous les robots d'exploration Web) auquel les règles prescrites s'appliquent. Chaque moteur de recherche possède son propre bot : Google a Googlebot, Bing a Bingbot et Yahoo! a Slurp. La plupart des moteurs de recherche ont plusieurs robots pour leur index régulier, leurs programmes publicitaires, leurs images, leurs vidéos, etc. Le validateur robots.txt montrera quels robots d'exploration peuvent ou non demander le contenu de votre site Web.
Allow
Cette directive spécifie les fichiers, catégories et pages de sites Web auxquels les robots désignés peuvent accéder. Lorsqu'aucun chemin n'est spécifié, la directive est ignorée. Il est utilisé pour contrecarrer la directive Refuser, par exemple pour autoriser l'accès à une page ou à un fichier dans un répertoire non autorisé. Le testeur robots.txt vous montrera à quelles pages les robots peuvent accéder.
Disallow
Cette directive est ajoutée au fichier robots.txt pour empêcher les moteurs de recherche d'explorer des fichiers et des URL de sites Web spécifiques. Vous pouvez interdire les fichiers internes et de service, par exemple un dossier contenant des données utilisateur spécifiées lors de l'enregistrement. L'outil montrera lesquelles des pages saisies ne sont pas autorisées à être explorées.

Comment utiliser notre Robots.txt tester?

Nous avons créé le robots.txt tester afin que chacun puisse vérifier rapidement son fichier. Pour utiliser notre outil, collez les URL nécessaires dans le champ de saisie et cliquez sur Vérifier votre robots.txt. En conséquence, vous saurez si des pages spécifiques sont autorisées ou bloquées à l’exploration. Une URL sera surlignée en rouge si son exploration est bloquée, et si la page est autorisée à être explorée par des robots, elle sera surlignée en vert. De plus, l'outil vous montrera le fichier robots.txt pour chaque domaine saisi (si vous cochez la case Afficher le fichier robots.txt).
Foire aux questions

Pourquoi un fichier robots.txt est-il nécessaire?

Les fichiers Robots.txt fournissent aux moteurs de recherche des informations importantes sur l’exploration des fichiers et des pages Web. Ce fichier est principalement utilisé pour gérer le trafic des robots vers votre site Web afin d’éviter de surcharger votre site de requêtes.

Vous pouvez résoudre deux problèmes avec son aide:

  • Tout d’abord, réduisez la probabilité que certaines pages soient explorées, y compris leur indexation et leur apparition dans les résultats de recherche.
  • Deuxièmement, économisez le budget d’exploration en fermant les pages qui ne devraient pas être indexées.

Toutefois, si vous souhaitez empêcher une page ou un autre actif numérique d’apparaître dans la recherche Google, une option plus fiable consisterait à ajouter l’attribut no-index à la balise méta robots.

Comment s'assurer que robots.txt fonctionne correctement?

Un moyen rapide et simple de vous assurer que votre fichier robots.txt fonctionne correctement consiste à utiliser des outils spéciaux.

Par exemple, vous pouvez valider votre robots.txt en utilisant notre outil : saisissez jusqu’à 100 URL et il vous montrera si le fichier empêche les robots d’accéder à des URL spécifiques sur votre site.

Pour détecter rapidement les erreurs dans le fichier robots.txt, vous pouvez également utiliser Google Search Console.

Problèmes robots.txt courants

  • Le fichier n’est pas au format .txt. Dans ce cas, les robots ne pourront pas trouver et explorer votre fichier robots.txt en raison de la non-concordance du format.
  • Robots.txt ne se trouve pas dans le répertoire racine. Le fichier doit être placé dans le répertoire le plus haut du site Web. S’il est placé dans un sous-dossier, votre fichier robots.txt ne sera probablement pas visible pour les robots de recherche. Pour résoudre ce problème, déplacez votre fichier robots.txt vers votre répertoire racine.

Dans la directive Refuser, vous devez spécifier des fichiers ou des pages particuliers qui ne doivent pas apparaître sur les SERP. Il peut être utilisé avec la directive User-agent afin de bloquer le site Web d’un robot d’exploration particulier.

  • Interdire sans valeur. Une directive Refuser: vide indique aux robots qu’ils peuvent visiter n’importe quelle page du site Web.
  • Interdire sans valeur. Une directive Refuser: vide indique aux robots qu’ils peuvent visiter n’importe quelle page du site Web.
  • Lignes vides dans le fichier robots.txt. Ne laissez pas de lignes vides entre les directives. Sinon, les robots ne pourront pas explorer le fichier correctement. Une ligne vide dans le fichier robots.txt doit être placée seulement avant d’indiquer un nouveau User-agent.

Bonnes pratiques pour les robots.txt

  1. Utilisez la casse appropriée dans robots.txt. Les robots traitent les noms de dossiers et de sections comme étant sensibles à la casse. Ainsi, si le nom d’un dossier commence par une lettre majuscule, le nommer avec une lettre minuscule désorientera le robot, et vice versa.
  2. Chaque directive doit commencer sur une nouvelle ligne. Il ne peut y avoir qu’un seul paramètre par ligne.
  3. L’utilisation d’espaces en début de ligne, de guillemets ou de points-virgules pour les directives est strictement interdite.
  4. Il n’est pas nécessaire de répertorier tous les fichiers que vous souhaitez bloquer des robots d’exploration. Il vous suffit de spécifier un dossier ou un répertoire dans la directive Refuser, et tous les fichiers de ces dossiers ou répertoires seront également bloqués lors de l’exploration.
  5. Vous pouvez utiliser des expressions régulières pour créer un fichier robots.txt avec des instructions plus flexibles.
    • L’astérisque (*) indique toute variation de valeur.
    • Le signe dollar ($) est une restriction de type astérisque qui s’applique aux adresses URL des sites Web. Il est utilisé pour spécifier la fin du chemin de l’URL.
  6. Utilisez l’authentification côté serveur pour bloquer l’accès au contenu privé. De cette façon, vous pouvez vous assurer que vos données importantes ne seront pas volées.
  7. Utilisez un fichier robots.txt par domaine. Si vous devez définir des directives d’exploration pour différents sites, créez un robots.txt distinct pour chacun.

Autres façons de tester votre fichier robots.txt

Vous pouvez analyser votre fichier robots.txt à l’aide de l’outil Google Search Console.

Ce testeur robots.txt vous montre si votre fichier robots.txt empêche les robots d’exploration de Google d’accéder à des URL spécifiques sur votre site Web. L’outil n’est pas disponible dans la nouvelle version de GSC, mais vous pouvez y accéder en cliquant sur ce lien.

Choisissez votre domaine et l’outil vous montrera le fichier robots.txt, ses erreurs et ses avertissements.

Allez au bas de la page, où vous pouvez saisir l’URL d’une page dans la zone de texte. En conséquence, le testeur robots.txt vérifiera que votre URL a été correctement bloquée.

Que doit contenir un fichier robots.txt?

Les fichiers Robots.txt contiennent des informations qui indiquent aux robots d’exploration comment interagir avec un site particulier. Cela commence par une directive User-agent qui spécifie le robot de recherche auquel les règles s’appliquent. Ensuite, vous devez spécifier des directives qui autorisent et bloquent certains fichiers et pages des robots d’exploration. À la fin d’un fichier robots.txt, vous pouvez éventuellement ajouter un lien vers votre plan de site.

Les robots peuvent-ils ignorer le fichier robots.txt?

Les robots d’exploration font toujours référence à un fichier robots.txt existant lorsqu’ils visitent un site Web. Bien que le fichier robots.txt fournisse des règles pour les robots, il ne peut pas appliquer les instructions. Le fichier robots.txt lui-même est une liste de directives destinées aux robots d’exploration, et non de règles strictes. Par conséquent, dans certains cas, les robots peuvent ignorer ces directives.

Comment réparer un fichier robots.txt?

Un fichier robots.txt est un document texte. Vous pouvez modifier le fichier actuel via un éditeur de texte, puis l’ajouter à nouveau au répertoire racine du site Web. De plus, de nombreux CMS, y compris WordPress, disposent de divers plugins qui permettent d’apporter des modifications au fichier robots.txt. Vous pouvez le faire directement depuis le tableau de bord d’administration.