Robots.txt Generator |
Generelle direktiver
Konfigurer standardvirkemåte for alle robotsøkeprogrammer før lagoverstyringer.
Angi en global tillatelses- eller blokkeringsregel for brukeragent: *.
Reduser hastigheten på crawlere hvis serveren din trenger pusterom.
Valgfritt vertsdirektiv for speilede domener.
Én sti per linje. Støtter jokertegn og etterfølgende skråstreker.
Sørg for at bestemte mapper fortsatt kan gjennomsøkes selv når bredere stier er blokkert.
Oppgi én nettadresse for nettstedskartet per linje. Legg til flere nettstedskartindekser hvis du har noen.
Vanlige kryper
Aktiver/deaktiver robotsøkeprogrammene du vil blokkere helt. La dem være avhengige av standardregelen ovenfor.
Tilpassede regler
Legg til brukeragenter med skreddersydde tillatelses- eller blokkeringsdirektiver, gjennomsøkingsforsinkelser og tips til nettstedskart.
Ingen egendefinerte regler ennå. Bruk knappen ovenfor for å opprette en.
Nøyaktig brukeragentstreng eller jokertegnstreng.
Kopier den genererte filen ovenfor og last den opp til roten av domenet ditt som robots.txt.
Innholdsfortegnelse
Robots.txt generator for bedre crawling og indeksering
Robots.txt er en liten tekstfil som veileder søkeroboter på nettstedet ditt. Den forteller crawlere hvilke områder de har tilgang til og hvilke stier de bør unngå. Dette holder crawling fokusert på sider som betyr noe, og reduserer bortkastede besøk på URL-er med lav verdi.
Bruk robots.txt for å blokkere områder som administrasjonssider, staging-mapper, test-URL-er, filtersider og dupliserte stier. Når reglene dine er klare, bruker søkemotorer mer tid på dine viktige sider. Det kan hjelpe nytt innhold å bli oppdaget raskere og holde crawlingen ren og forutsigbar.
Hva Robots.txt betyr i SEO
Robots.txt er en del av roboteksklusjonsstandarden. Du plasserer den på:
yourdomain.com/robots.txt
Søkemotorer sjekker ofte denne filen tidlig fordi den gir dem klare gjennomlesningsinstruksjoner. Hvis siden din er liten, kan den fortsatt bli indeksert uten en robots.txt fil. Men på større nettsteder kan manglende veiledning føre til bortkastet gjennomsøking og tregere oppdagelse av nøkkelsider.
Et viktig poeng:
- Robots.txt kontroller kryper
- Det garanterer ikke indeksering
Hvis du vil bekrefte at en side kan vises i søkeresultater, bruk en indekseringssjekk. Det hjelper deg å oppdage signaler som noindex, blokkerte ressurser eller andre problemer som robots.txt ikke dekker.
Hvorfor Robots.txt hjelper med crawl-budsjett
Søkemotorer crawler ikke hver side hver dag. De crawler basert på begrensninger og signaler som nettstedets hastighet, serverhelse og hvor ofte innholdet ditt endres.
Hvis nettstedet ditt er tregt eller gir feilmeldinger, kan crawlere besøke færre sider per kjøring. Det kan forsinke indeksering for nye innlegg og oppdaterte sider. Robots.txt hjelper ved å redusere bortkastede gjennomsøkninger, slik at roboter bruker mer tid på sidene du faktisk vil at de skal fokusere på.
For best resultat, bruk robots.txt med et sitemap:
- Robots.txt guider roboter om hva de skal krabbe eller hoppe over
- Sitemap viser sidene du ønsker crawlet og indeksert
Robots.txt regler du bør kjenne til
En robots.txt-fil bruker noen enkle direktiver. De er lette å lese, men du må skrive dem nøye.
- User-agent
- Setter hvilken bot regelen gjelder for
- Avviser
- Blokker som søker etter en mappe eller sti
- Tillat
- Åpner en spesifikk sti inne i en blokkert mappe
- Kryp-forsinkelse
- Ber om langsommere crawling for noen bots (ikke alle bots følger den)
En liten feil kan blokkere viktige sider, inkludert nøkkelkategorier eller kjerne-landingssider. Derfor er det tryggere å bruke en generator enn å skrive alt manuelt.
Hvorfor WordPress-nettsteder ofte trenger Robots.txt
WordPress kan lage mange URL-er som ikke hjelper SEO, som interne søkesider, noen arkivsider og parameterbaserte URL-er. Å blokkere områder med lav verdi hjelper crawlere å bruke mer tid på hovedsidene, blogginnleggene dine og produkt- eller tjenestesidene.
Selv på mindre nettsteder er en ren robots.txt-fil en smart løsning. Det holder crawl-reglene dine organisert etter hvert som siden vokser.
Robots.txt og sitemap-forskjell
Et sitemap hjelper søkemotorer med å finne sidene du ønsker crawlet. Robots.txt kontrollerer hvor roboter kan gå.
- Sitemap forbedrer oppdagelsen
- Robots.txt kontrollerer krypetilgang
De fleste nettsteder har nytte av å bruke begge deler.
Hvordan lage Robots.txt ved å bruke denne generatoren
Robots.txt er enkelt, men det er ikke tilgivende. En feil regel kan blokkere nøkkelsider. Denne generatoren hjelper deg å bygge filen trygt.
Sett standardtilgang
Velg om alle roboter kan crawle siden din som standard.
Legg til nettsidekart-URL-en din
Inkluder sidekartet ditt slik at crawlere kan finne viktige sider raskere.
Legg til forbudte stier forsiktig
Blokker kun det du virkelig ikke vil ha crawlet. Start alltid med en fremoverstreket skråstrek, som:
/admin/ eller /søk/
Gjennomgang før publisering
Dobbeltsjekk at du ikke har blokkert hjemmesiden, bloggen, kategorisidene eller hovedtjenestesidene dine.
Relaterte SEO-verktøy som fungerer godt med Robots.txt
Robots.txt er én del av teknisk SEO. Disse verktøyene støtter det samme målet og hjelper deg å bekrefte at alt fungerer som det skal:
- Sitemap-sjekker: Bekrefter at sitemapen din er gyldig og enkel for roboter å lese.
- Google Index Checker: Verifiserer om en side kan indekseres og flagger vanlige blokkere som noindex.
- Sjekk HTTP-statuskode: Finner 200, 301, 404 og serverfeil som kan forsinke crawling.
- Gratis omdirigeringssjekker: Bekrefter at omdirigeringer er rene og ikke sitter fast i kjeder eller løkker.
- Metatags-analyse: Gjennomgår titler, beskrivelser og roboter metatagger for SEO-feil.
API-dokumentasjon kommer snart
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.