Under udvikling

Robots.txt Generator |

Reklame

Generelle direktiver

Konfigurer standardadfærd for alle crawlere før lagdeling af tilsidesættelser.

Angiv en global tilladelses- eller blokeringsregel for brugeragent: *.

Sænk crawlere, hvis din server har brug for plads.

Valgfri værtsdirektiv for spejlede domæner.

Én sti pr. linje. Understøtter jokertegn og efterfølgende skråstreger.

Sørg for, at specifikke mapper forbliver gennemgåbare, selv når bredere stier er blokeret.

Angiv én sitemap-URL pr. linje. Tilføj yderligere sitemap-indekser, hvis du har dem.

Almindelige krybedyr

Slå de crawlere til/fra, du vil blokere helt. Lad dem have lov til at bruge standardreglen ovenfor.

Brugerdefinerede regler

Tilføj brugeragenter med skræddersyede tilladelses- eller blokeringsdirektiver, crawlforsinkelser og sitemap-tips.

Kopier den genererede fil ovenfor, og upload den til roden af ​​dit domæne som robots.txt.

Generer robots.txt-filer for at kontrollere søgemaskinens crawl-adfærd.
Reklame

Indholdsfortegnelse

Robots.txt er en lille tekstfil, der guider søgebots på din side. Den fortæller crawlers, hvilke områder de kan få adgang til, og hvilke stier de bør undgå. Dette holder crawling fokuseret på sider, der betyder noget, og reducerer spildte besøg på lavværdi-URL'er.

Brug robots.txt til at blokere områder som admin-sider, staging-mapper, test-URL'er, filtersider og dubletter stier. Når dine regler er klare, bruger søgemaskiner mere tid på dine vigtige sider. Det kan hjælpe nyt indhold med at blive opdaget hurtigere og holde crawlingen ren og forudsigelig.

Robots.txt er en del af robotternes udelukkelsesstandard. Du placerer den på:

yourdomain.com/robots.txt

Søgemaskiner tjekker ofte denne fil tidligt, fordi den giver dem klare kravlevejledninger. Hvis dit site er lille, kan det stadig blive indekseret uden en robots.txt fil. Men på større sider kan manglende vejledning føre til spildt crawling og langsommere opdagelse af nøglesider.

Et vigtigt punkt:

  • Robots.txt styringen kravler
  • Det garanterer ikke indeksering

Hvis du vil bekræfte, at en side kan vises i søgeresultaterne, skal du bruge en indekserbarhedskontrol. Det hjælper dig med at spotte signaler som noindex, blokerede ressourcer eller andre problemer, som robots.txt ikke dækker.

Søgemaskiner crawler ikke hver side hver dag. De crawler baseret på grænser og signaler som sidens hastighed, serverens sundhed og hvor ofte dit indhold ændrer sig.

Hvis dit site er langsomt eller giver fejl, kan crawlere besøge færre sider pr. gennemløb. Det kan forsinke indeksering for nye indlæg og opdaterede sider. Robots.txt hjælper ved at reducere spildte crawls, så bots bruger mere tid på de sider, du faktisk ønsker, de skal fokusere på.

For bedste resultater kan du bruge robots.txt med et sitemap:

  • Robots.txt guider bots i, hvad de skal crawle eller springe over
  • Sitemap viser de sider, du ønsker crawlet og indekseret

En robots.txt-fil bruger nogle få simple direktiver. De er lette at læse, men du skal skrive dem omhyggeligt.

  • Brugeragent
  • Sætter hvilken bot reglen gælder for
  • Afviser
  • Blokcrawling efter en mappe eller sti
  • Tillad
  • Åbner en specifik sti inde i en blokeret mappe
  • Krybe-forsinkelse
  • Anmodninger om langsommere crawling for nogle bots (ikke alle bots følger det)

En lille fejl kan blokere vigtige sider, herunder nøglekategorier eller kerne-landingssider. Derfor er det sikrere at bruge en generator end at skrive alt manuelt.

WordPress kan oprette mange URL'er, der ikke hjælper SEO, såsom interne søgesider, nogle arkivsider og parameterbaserede URL'er. At blokere lavværdiområder hjælper crawlere med at bruge mere tid på dine hovedsider, blogindlæg og produkt- eller servicesider.

Selv på mindre sider er en ren robots.txt-fil en smart opsætning. Det holder dine crawl-regler organiserede, efterhånden som siden vokser.

Et sitemap hjælper søgemaskiner med at finde de sider, du ønsker crawlet. Robots.txt styrer, hvor bots kan gå hen.

  • Sitemap forbedrer opdagelsen
  • Robots.txt styrer kravlende adgang

De fleste hjemmesider har gavn af at bruge begge dele.

Robots.txt er enkelt, men det er ikke tilgivende. En forkert regel kan blokere nøglesider. Denne generator hjælper dig med at bygge filen sikkert.

Sæt standardadgang

Vælg om alle bots som standard kan crawle dit site.

Tilføj din sitemap-URL

Inkluder dit sitemap, så crawlere hurtigere kan finde dine vigtige sider.

Tilføj forbudte stier forsigtigt

Bloker kun det, du virkelig ikke ønsker at blive kravlet. Start altid med en fremadrettet skråstreg, som:

/admin/ eller /search/

Anmeldelse før udgivelse

Dobbelttjek at du ikke har blokeret din hjemmeside, blog, kategorisider eller hovedservicesider.

Robots.txt er én del af teknisk SEO. Disse værktøjer understøtter det samme mål og hjælper dig med at bekræfte, at alt fungerer korrekt:

API-dokumentation kommer snart

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.