Analysez votre fichier robots.txt selon les règles de Googlebot et testez l'accessibilité de vos URLs
Analyse du robots.txt
Résultats
Questions fréquentes sur le robots.txt checker
Un robots.txt checker est un outil qui analyse votre fichier robots.txt pour vérifier qu'il respecte les standards et les règles d'interprétation de Googlebot. Notre robots.txt testeur vous permet de détecter les erreurs de syntaxe, de tester l'accessibilité de vos URLs et de simuler le comportement des robots de Google sur votre site.
C'est très simple ! Saisissez l'URL de votre site (l'outil ira automatiquement chercher le fichier /robots.txt) ou collez directement le contenu de votre robots.txt. Sélectionnez les user-agents Google à tester, ajoutez les chemins d'URL que vous souhaitez vérifier, puis cliquez sur "Analyser". Notre robots.txt checker vous donnera instantanément un rapport détaillé.
Notre robots.txt checker reproduit fidèlement le comportement de Google : analyse limitée aux premiers 500 KiB, encodage UTF-8, gestion des commentaires (#), regroupement par User-agent, sélection du groupe le plus spécifique, correspondance des motifs avec * et $, règle la plus longue qui gagne avec priorité aux directives Allow.
Si votre fichier robots.txt renvoie une erreur 404 ou 5xx, Google considère que tout est autorisé sur votre site. Notre robots.txt testeur reproduit ce comportement et vous indiquera que tous les chemins testés sont accessibles. Il est recommandé de créer un fichier robots.txt même s'il autorise tout, ne serait-ce que pour indiquer l'emplacement de votre sitemap.
Notre outil supporte tous les principaux bots de Google : Googlebot (crawler principal), Googlebot-Image (images), Googlebot-News (actualités), Googlebot-Video (vidéos) et le joker * (tous les robots). Vous pouvez sélectionner plusieurs User-Agents simultanément pour voir comment chacun interprète votre robots.txt selon les règles de priorité de Google.
Ce robots.txt checker détecte les directives ignorées par Google (Crawl-delay, Host, Clean-param), les lignes mal formatées, l'absence de groupe User-agent: *, les fichiers trop volumineux (>500 KiB), les erreurs de syntaxe dans les motifs, et les conflits entre règles Allow et Disallow. Il vous aide à optimiser votre robots.txt pour un meilleur SEO.
Absolument ! Notre robots.txt checker vous permet soit de saisir une URL (pour récupérer automatiquement le fichier), soit de coller directement le contenu de votre robots.txt dans la zone de texte. C'est très pratique pour tester des modifications avant de les mettre en ligne ou pour analyser des fichiers robots.txt hors ligne.