common.you_need_to_be_loggedin_to_add_tool_in_favorites
Générateur de robots.txt |
Directives générales
Configurez le comportement par défaut de tous les robots d'exploration avant d'appliquer des substitutions.
Définissez une règle globale d'autorisation ou de blocage pour User-agent : *.
Limitez le nombre de robots d'exploration si votre serveur a besoin de souffler.
Directive hôte facultative pour les domaines miroirs.
Un chemin par ligne. Prend en charge les caractères génériques et les barres obliques finales.
Veillez à ce que certains dossiers restent accessibles à l'exploration même lorsque des chemins d'accès plus larges sont bloqués.
Indiquez une URL de plan de site par ligne. Ajoutez des index de plan de site supplémentaires si vous en avez.
rampants communs
Sélectionnez les robots d'exploration que vous souhaitez bloquer complètement. Laissez-les autorisés à se baser sur la règle par défaut ci-dessus.
Règles personnalisées
Ajoutez des agents utilisateurs avec des directives d'autorisation ou de blocage personnalisées, des délais d'exploration et des indications de plan de site.
Aucune règle personnalisée pour le moment. Utilisez le bouton ci-dessus pour en créer une.
Chaîne d'agent utilisateur exacte ou générique.
Copiez le fichier généré ci-dessus et téléchargez-le à la racine de votre domaine sous le nom robots.txt.
Générateur Robots.txt pour une meilleure exploration et indexation
Robots.txt est un petit fichier texte qui guide les robots de recherche sur votre site.
Utilisez robots.txt pour bloquer des zones telles que les pages d'administration, les dossiers intermédiaires, les URL de test, les pages de filtrage et les chemins en double.
Que signifie Robots.txt en référencement
Robots.txt fait partie de la norme d'exclusion des robots.
votredomaine.com/robots.txt
Les moteurs de recherche vérifient souvent ce fichier tôt car il leur donne des instructions d'exploration claires.
Un point important :
- Robots.txt contrôle l'exploration
- Il ne garantit pas l'indexation
Si vous souhaitez confirmer qu'une page peut apparaître dans les résultats de recherche, utilisez une vérification d'indexabilité.
Pourquoi Robots.txt aide avec le budget d'exploration
Les moteurs de recherche n’explorent pas chaque page tous les jours.
Si votre site est lent ou renvoie des erreurs, les robots d'exploration peuvent visiter moins de pages par exécution.
Pour de meilleurs résultats, utilisez robots.txt avec un plan du site :
- Robots.txt guide les robots sur les éléments à explorer ou à ignorer
- Le plan du site répertorie les pages que vous souhaitez explorer et indexer
Règles Robots.txt que vous devez connaître
Un fichier robots.txt utilise quelques directives simples.
- Agent utilisateur
- Définit à quel bot la règle s'applique
- Refuser
- Bloque l'exploration d'un dossier ou d'un chemin
- Autoriser
- Ouvre un chemin spécifique dans un dossier bloqué
- Délai d'exploration
- Demande une exploration plus lente pour certains robots (tous les robots ne la suivent pas)
Une petite erreur peut bloquer des pages importantes, notamment des catégories clés ou des pages de destination principales.
Pourquoi les sites WordPress ont souvent besoin de Robots.txt
WordPress peut créer de nombreuses URL qui n'aident pas le référencement, telles que des pages de recherche internes, certaines pages d'archives et des URL basées sur des paramètres.
Même sur les petits sites, un fichier robots.txt propre constitue une configuration intelligente.
Différence entre Robots.txt et plan du site
Un plan du site aide les moteurs de recherche à découvrir les pages que vous souhaitez explorer.
- Le Plan du site améliore la découverte
- Robots.txt contrôle l'accès à l'exploration
La plupart des sites Web bénéficient de l’utilisation des deux.
Comment créer des Robots.txt à l'aide de ce générateur
Robots.txt est simple, mais il ne pardonne pas.
Définir l'accès par défaut
Choisissez si tous les robots peuvent explorer votre site par défaut.
Ajoutez l'URL de votre plan de site
Incluez votre plan de site afin que les robots d'exploration puissent trouver vos pages importantes plus rapidement.
Ajoutez soigneusement les chemins non autorisés
Bloquez uniquement ce que vous ne voulez vraiment pas explorer.
/admin/ ou /search/
Réviser avant de publier
Vérifiez à nouveau que vous n'avez pas bloqué votre page d'accueil, votre blog, vos pages de catégorie ou vos pages de service principales.
Outils de référencement associés qui fonctionnent bien avec Robots.txt
Robots.txt fait partie du référencement technique.
- Vérificateur de plan de site : confirme que votre plan de site est valide et facile à lire pour les robots.
- Google Index Checker : vérifie si une page peut être indexée et signale les bloqueurs courants comme noindex.
- Vérifier le code d'état HTTP : recherche les erreurs 200, 301, 404 et de serveur qui peuvent ralentir l'exploration.
- Vérificateur de redirection gratuit : confirme que les redirections sont propres et ne sont pas bloquées dans des chaînes ou des boucles.
- Analyse des balises méta : examine les titres, les descriptions et les balises méta des robots pour détecter les erreurs de référencement.