En développement

Générateur de robots.txt |

Publicité

Directives générales

Configurez le comportement par défaut de tous les robots d'exploration avant d'appliquer des substitutions.

Définissez une règle globale d'autorisation ou de blocage pour User-agent : *.

Limitez le nombre de robots d'exploration si votre serveur a besoin de souffler.

Directive hôte facultative pour les domaines miroirs.

Un chemin par ligne. Prend en charge les caractères génériques et les barres obliques finales.

Veillez à ce que certains dossiers restent accessibles à l'exploration même lorsque des chemins d'accès plus larges sont bloqués.

Indiquez une URL de plan de site par ligne. Ajoutez des index de plan de site supplémentaires si vous en avez.

rampants communs

Sélectionnez les robots d'exploration que vous souhaitez bloquer complètement. Laissez-les autorisés à se baser sur la règle par défaut ci-dessus.

Règles personnalisées

Ajoutez des agents utilisateurs avec des directives d'autorisation ou de blocage personnalisées, des délais d'exploration et des indications de plan de site.

Copiez le fichier généré ci-dessus et téléchargez-le à la racine de votre domaine sous le nom robots.txt.

Générez des fichiers robots.txt pour contrôler le comportement d'exploration des moteurs de recherche.
Table of Contents

Robots.txt est un petit fichier texte qui guide les robots de recherche sur votre site.

Utilisez robots.txt pour bloquer des zones telles que les pages d'administration, les dossiers intermédiaires, les URL de test, les pages de filtrage et les chemins en double.

Robots.txt fait partie de la norme d'exclusion des robots.

votredomaine.com/robots.txt

Les moteurs de recherche vérifient souvent ce fichier tôt car il leur donne des instructions d'exploration claires.

Un point important :

  • Robots.txt contrôle l'exploration
  • Il ne garantit pas l'indexation

Si vous souhaitez confirmer qu'une page peut apparaître dans les résultats de recherche, utilisez une vérification d'indexabilité.

Les moteurs de recherche n’explorent pas chaque page tous les jours.

Si votre site est lent ou renvoie des erreurs, les robots d'exploration peuvent visiter moins de pages par exécution.

Pour de meilleurs résultats, utilisez robots.txt avec un plan du site :

  • Robots.txt guide les robots sur les éléments à explorer ou à ignorer
  • Le plan du site répertorie les pages que vous souhaitez explorer et indexer

Un fichier robots.txt utilise quelques directives simples.

  • Agent utilisateur
  • Définit à quel bot la règle s'applique
  • Refuser
  • Bloque l'exploration d'un dossier ou d'un chemin
  • Autoriser
  • Ouvre un chemin spécifique dans un dossier bloqué
  • Délai d'exploration
  • Demande une exploration plus lente pour certains robots (tous les robots ne la suivent pas)

Une petite erreur peut bloquer des pages importantes, notamment des catégories clés ou des pages de destination principales.

WordPress peut créer de nombreuses URL qui n'aident pas le référencement, telles que des pages de recherche internes, certaines pages d'archives et des URL basées sur des paramètres.

Même sur les petits sites, un fichier robots.txt propre constitue une configuration intelligente.

Un plan du site aide les moteurs de recherche à découvrir les pages que vous souhaitez explorer.

  • Le Plan du site améliore la découverte
  • Robots.txt contrôle l'accès à l'exploration

La plupart des sites Web bénéficient de l’utilisation des deux.

Robots.txt est simple, mais il ne pardonne pas.

Définir l'accès par défaut

Choisissez si tous les robots peuvent explorer votre site par défaut.

Ajoutez l'URL de votre plan de site

Incluez votre plan de site afin que les robots d'exploration puissent trouver vos pages importantes plus rapidement.

Ajoutez soigneusement les chemins non autorisés

Bloquez uniquement ce que vous ne voulez vraiment pas explorer.

/admin/ ou /search/

Réviser avant de publier

Vérifiez à nouveau que vous n'avez pas bloqué votre page d'accueil, votre blog, vos pages de catégorie ou vos pages de service principales.

Robots.txt fait partie du référencement technique.