common.you_need_to_be_loggedin_to_add_tool_in_favorites
Generador de Robots.txt |
Directives generals
Configureu el comportament predeterminat per a tots els rastrejadors abans de les substitucions de capes.
Estableix una regla global de permís o bloqueig per a l'agent d'usuari: *.
Redueix els rastrejadors si el teu servidor necessita respir.
Directiva d'amfitrió opcional per a dominis duplicats.
Un camí per línia. Admet comodins i barres inclinades finals.
Assegureu-vos que carpetes específiques es puguin rastrejar fins i tot quan els camins més amplis estiguin bloquejats.
Proporcioneu una URL de mapa del lloc per línia. Afegiu índexs de mapa del lloc addicionals si en teniu.
rastrejadors comuns
Activa/desactiva els rastrejadors que vols bloquejar completament. Deixa'ls autoritzats a confiar en la regla predeterminada anterior.
Regles personalitzades
Afegiu agents d'usuari amb directives de permís o bloqueig personalitzades, retards de rastreig i pistes del mapa del lloc.
Encara no hi ha regles personalitzades. Feu servir el botó de dalt per crear-ne una.
Cadena d'agent d'usuari exacta o comodí.
Copieu el fitxer generat anteriorment i pengeu-lo a l'arrel del vostre domini com a robots.txt.
Generador de robots.txt per a un millor rastreig i indexació
Robots.txt és un petit fitxer de text que guia els robots de cerca del vostre lloc.
Utilitzeu robots.txt per bloquejar àrees com ara pàgines d'administració, carpetes de prova, URL de prova, pàgines de filtre i camins duplicats.
Què significa Robots.txt en SEO
Robots.txt forma part de l'estàndard d'exclusió de robots.
el teudomini.com/robots.txt
Els motors de cerca solen comprovar aquest fitxer abans d'hora perquè els ofereix indicacions clares de rastreig.
Un punt important:
- Robots.txt controla el rastreig
- No garanteix la indexació
Si voleu confirmar que una pàgina pot aparèixer als resultats de la cerca, feu servir una comprovació d'indexabilitat.
Per què Robots.txt ajuda amb el pressupost de rastreig
Els motors de cerca no rastregen cada pàgina cada dia.
Si el vostre lloc és lent o retorna errors, els rastrejadors poden visitar menys pàgines per execució.
Per obtenir els millors resultats, utilitzeu robots.txt amb un mapa del lloc:
- Robots.txt guia els robots sobre què rastrejar o saltar
- El mapa del lloc enumera les pàgines que voleu rastrejar i indexar
Regles de Robots.txt que hauríeu de conèixer
Un fitxer robots.txt utilitza unes quantes directives senzilles.
- Agent d'usuari
- Defineix a quin bot s'aplica la regla
- No permetre
- Bloqueja el rastreig d'una carpeta o camí
- Permet
- Obre un camí específic dins d'una carpeta bloquejada
- Retard del rastreig
- Sol·licita un rastreig més lent per a alguns robots (no tots els robots el segueixen)
Un petit error pot bloquejar pàgines importants, incloses les categories clau o les pàgines de destinació bàsiques.
Per què els llocs de WordPress sovint necessiten Robots.txt
WordPress pot crear molts URL que no ajuden al SEO, com ara pàgines de cerca internes, algunes pàgines d'arxiu i URL basats en paràmetres.
Fins i tot en llocs més petits, un fitxer robots.txt net és una configuració intel·ligent.
Robots.txt i la diferència del mapa del lloc
Un mapa del lloc ajuda els motors de cerca a descobrir les pàgines que voleu rastrejar.
- El mapa del lloc millora la descoberta
- Robots.txt controla l'accés al rastreig
La majoria de llocs web es beneficien d'utilitzar tots dos.
Com crear Robots.txt amb aquest generador
Robots.txt és senzill, però no perdona.
Estableix l'accés predeterminat
Trieu si tots els robots poden rastrejar el vostre lloc de manera predeterminada.
Afegiu l'URL del vostre mapa del lloc
Incloeu el vostre mapa del lloc perquè els rastrejadors puguin trobar les vostres pàgines importants més ràpidament.
Afegiu camins no permesos amb cura
Bloqueja només allò que realment no vols que es rastregi.
/admin/ o /search/
Revisa abans de publicar
Comproveu que no heu bloquejat la vostra pàgina d'inici, bloc, pàgines de categories o pàgines de serveis principals.
Eines de SEO relacionades que funcionen bé amb Robots.txt
Robots.txt és una part del SEO tècnic.
- Verificador de mapes del lloc: confirma que el vostre mapa del lloc és vàlid i fàcil de llegir per als robots.
- Google Index Checker: verifica si una pàgina es pot indexar i marca els bloquejadors habituals com noindex.
- Comprova el codi d'estat HTTP: troba errors 200, 301, 404 i del servidor que poden retardar el rastreig.
- Comprovador de redireccions gratuït: confirma que les redireccions estan netes i no estan enganxades en cadenes o bucles.
- Anàlisi de metaetiquetes: revisa els títols, les descripcions i les metaetiquetes dels robots per detectar errors de SEO.