Robots.txt Generator |
Generelle direktiver
Konfigurer standardadfærd for alle crawlere før lagdeling af tilsidesættelser.
Angiv en global tilladelses- eller blokeringsregel for brugeragent: *.
Sænk crawlere, hvis din server har brug for plads.
Valgfri værtsdirektiv for spejlede domæner.
Én sti pr. linje. Understøtter jokertegn og efterfølgende skråstreger.
Sørg for, at specifikke mapper forbliver gennemgåbare, selv når bredere stier er blokeret.
Angiv én sitemap-URL pr. linje. Tilføj yderligere sitemap-indekser, hvis du har dem.
Almindelige krybedyr
Slå de crawlere til/fra, du vil blokere helt. Lad dem have lov til at bruge standardreglen ovenfor.
Brugerdefinerede regler
Tilføj brugeragenter med skræddersyede tilladelses- eller blokeringsdirektiver, crawlforsinkelser og sitemap-tips.
Ingen brugerdefinerede regler endnu. Brug knappen ovenfor til at oprette en.
Præcis brugeragentstreng eller jokertegnstreng.
Kopier den genererede fil ovenfor, og upload den til roden af dit domæne som robots.txt.
Indholdsfortegnelse
Robots.txt generator til bedre crawling og indeksering
Robots.txt er en lille tekstfil, der guider søgebots på din side. Den fortæller crawlers, hvilke områder de kan få adgang til, og hvilke stier de bør undgå. Dette holder crawling fokuseret på sider, der betyder noget, og reducerer spildte besøg på lavværdi-URL'er.
Brug robots.txt til at blokere områder som admin-sider, staging-mapper, test-URL'er, filtersider og dubletter stier. Når dine regler er klare, bruger søgemaskiner mere tid på dine vigtige sider. Det kan hjælpe nyt indhold med at blive opdaget hurtigere og holde crawlingen ren og forudsigelig.
Hvad Robots.txt betyder i SEO
Robots.txt er en del af robotternes udelukkelsesstandard. Du placerer den på:
yourdomain.com/robots.txt
Søgemaskiner tjekker ofte denne fil tidligt, fordi den giver dem klare kravlevejledninger. Hvis dit site er lille, kan det stadig blive indekseret uden en robots.txt fil. Men på større sider kan manglende vejledning føre til spildt crawling og langsommere opdagelse af nøglesider.
Et vigtigt punkt:
- Robots.txt styringen kravler
- Det garanterer ikke indeksering
Hvis du vil bekræfte, at en side kan vises i søgeresultaterne, skal du bruge en indekserbarhedskontrol. Det hjælper dig med at spotte signaler som noindex, blokerede ressourcer eller andre problemer, som robots.txt ikke dækker.
Hvorfor Robots.txt hjælper med crawl-budgettet
Søgemaskiner crawler ikke hver side hver dag. De crawler baseret på grænser og signaler som sidens hastighed, serverens sundhed og hvor ofte dit indhold ændrer sig.
Hvis dit site er langsomt eller giver fejl, kan crawlere besøge færre sider pr. gennemløb. Det kan forsinke indeksering for nye indlæg og opdaterede sider. Robots.txt hjælper ved at reducere spildte crawls, så bots bruger mere tid på de sider, du faktisk ønsker, de skal fokusere på.
For bedste resultater kan du bruge robots.txt med et sitemap:
- Robots.txt guider bots i, hvad de skal crawle eller springe over
- Sitemap viser de sider, du ønsker crawlet og indekseret
Robots.txt regler du bør kende
En robots.txt-fil bruger nogle få simple direktiver. De er lette at læse, men du skal skrive dem omhyggeligt.
- Brugeragent
- Sætter hvilken bot reglen gælder for
- Afviser
- Blokcrawling efter en mappe eller sti
- Tillad
- Åbner en specifik sti inde i en blokeret mappe
- Krybe-forsinkelse
- Anmodninger om langsommere crawling for nogle bots (ikke alle bots følger det)
En lille fejl kan blokere vigtige sider, herunder nøglekategorier eller kerne-landingssider. Derfor er det sikrere at bruge en generator end at skrive alt manuelt.
Hvorfor WordPress-sider ofte har brug for Robots.txt
WordPress kan oprette mange URL'er, der ikke hjælper SEO, såsom interne søgesider, nogle arkivsider og parameterbaserede URL'er. At blokere lavværdiområder hjælper crawlere med at bruge mere tid på dine hovedsider, blogindlæg og produkt- eller servicesider.
Selv på mindre sider er en ren robots.txt-fil en smart opsætning. Det holder dine crawl-regler organiserede, efterhånden som siden vokser.
Robots.txt og Sitemap-forskel
Et sitemap hjælper søgemaskiner med at finde de sider, du ønsker crawlet. Robots.txt styrer, hvor bots kan gå hen.
- Sitemap forbedrer opdagelsen
- Robots.txt styrer kravlende adgang
De fleste hjemmesider har gavn af at bruge begge dele.
Sådan opretter du Robots.txt ved hjælp af denne generator
Robots.txt er enkelt, men det er ikke tilgivende. En forkert regel kan blokere nøglesider. Denne generator hjælper dig med at bygge filen sikkert.
Sæt standardadgang
Vælg om alle bots som standard kan crawle dit site.
Tilføj din sitemap-URL
Inkluder dit sitemap, så crawlere hurtigere kan finde dine vigtige sider.
Tilføj forbudte stier forsigtigt
Bloker kun det, du virkelig ikke ønsker at blive kravlet. Start altid med en fremadrettet skråstreg, som:
/admin/ eller /search/
Anmeldelse før udgivelse
Dobbelttjek at du ikke har blokeret din hjemmeside, blog, kategorisider eller hovedservicesider.
Relaterede SEO-værktøjer, der fungerer godt med Robots.txt
Robots.txt er én del af teknisk SEO. Disse værktøjer understøtter det samme mål og hjælper dig med at bekræfte, at alt fungerer korrekt:
- Sitemap-tjekker: Bekræfter, at dit sitemap er gyldigt og nemt for bots at læse.
- Google Index Checker: Tjekker, om en side kan indekseres, og markerer almindelige blokeringer som noindex.
- Tjek HTTP-statuskode: Finder 200, 301, 404 og serverfejl, der kan sænke crawlingen.
- Gratis omdirigeringskontrol: Bekræfter at omdirigeringer er rene og ikke sidder fast i kæder eller løkker.
- Meta-tags analyse: Gennemgår titler, beskrivelser og robotter meta-tags for SEO-fejl.
API-dokumentation kommer snart
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.