Under utvikling

Robots.txt Generator |

Annonse

Generelle direktiver

Konfigurer standardvirkemåte for alle robotsøkeprogrammer før lagoverstyringer.

Angi en global tillatelses- eller blokkeringsregel for brukeragent: *.

Reduser hastigheten på crawlere hvis serveren din trenger pusterom.

Valgfritt vertsdirektiv for speilede domener.

Én sti per linje. Støtter jokertegn og etterfølgende skråstreker.

Sørg for at bestemte mapper fortsatt kan gjennomsøkes selv når bredere stier er blokkert.

Oppgi én nettadresse for nettstedskartet per linje. Legg til flere nettstedskartindekser hvis du har noen.

Vanlige kryper

Aktiver/deaktiver robotsøkeprogrammene du vil blokkere helt. La dem være avhengige av standardregelen ovenfor.

Tilpassede regler

Legg til brukeragenter med skreddersydde tillatelses- eller blokkeringsdirektiver, gjennomsøkingsforsinkelser og tips til nettstedskart.

Kopier den genererte filen ovenfor og last den opp til roten av domenet ditt som robots.txt.

Generer robots.txt-filer for å kontrollere søkemotorens gjennomgang.
Annonse

Innholdsfortegnelse

Robots.txt er en liten tekstfil som veileder søkeroboter på nettstedet ditt. Den forteller crawlere hvilke områder de har tilgang til og hvilke stier de bør unngå. Dette holder crawling fokusert på sider som betyr noe, og reduserer bortkastede besøk på URL-er med lav verdi.

Bruk robots.txt for å blokkere områder som administrasjonssider, staging-mapper, test-URL-er, filtersider og dupliserte stier. Når reglene dine er klare, bruker søkemotorer mer tid på dine viktige sider. Det kan hjelpe nytt innhold å bli oppdaget raskere og holde crawlingen ren og forutsigbar.

Robots.txt er en del av roboteksklusjonsstandarden. Du plasserer den på:

yourdomain.com/robots.txt

Søkemotorer sjekker ofte denne filen tidlig fordi den gir dem klare gjennomlesningsinstruksjoner. Hvis siden din er liten, kan den fortsatt bli indeksert uten en robots.txt fil. Men på større nettsteder kan manglende veiledning føre til bortkastet gjennomsøking og tregere oppdagelse av nøkkelsider.

Et viktig poeng:

  • Robots.txt kontroller kryper
  • Det garanterer ikke indeksering

Hvis du vil bekrefte at en side kan vises i søkeresultater, bruk en indekseringssjekk. Det hjelper deg å oppdage signaler som noindex, blokkerte ressurser eller andre problemer som robots.txt ikke dekker.

Søkemotorer crawler ikke hver side hver dag. De crawler basert på begrensninger og signaler som nettstedets hastighet, serverhelse og hvor ofte innholdet ditt endres.

Hvis nettstedet ditt er tregt eller gir feilmeldinger, kan crawlere besøke færre sider per kjøring. Det kan forsinke indeksering for nye innlegg og oppdaterte sider. Robots.txt hjelper ved å redusere bortkastede gjennomsøkninger, slik at roboter bruker mer tid på sidene du faktisk vil at de skal fokusere på.

For best resultat, bruk robots.txt med et sitemap:

  • Robots.txt guider roboter om hva de skal krabbe eller hoppe over
  • Sitemap viser sidene du ønsker crawlet og indeksert

En robots.txt-fil bruker noen enkle direktiver. De er lette å lese, men du må skrive dem nøye.

  • User-agent
  • Setter hvilken bot regelen gjelder for
  • Avviser
  • Blokker som søker etter en mappe eller sti
  • Tillat
  • Åpner en spesifikk sti inne i en blokkert mappe
  • Kryp-forsinkelse
  • Ber om langsommere crawling for noen bots (ikke alle bots følger den)

En liten feil kan blokkere viktige sider, inkludert nøkkelkategorier eller kjerne-landingssider. Derfor er det tryggere å bruke en generator enn å skrive alt manuelt.

WordPress kan lage mange URL-er som ikke hjelper SEO, som interne søkesider, noen arkivsider og parameterbaserte URL-er. Å blokkere områder med lav verdi hjelper crawlere å bruke mer tid på hovedsidene, blogginnleggene dine og produkt- eller tjenestesidene.

Selv på mindre nettsteder er en ren robots.txt-fil en smart løsning. Det holder crawl-reglene dine organisert etter hvert som siden vokser.

Et sitemap hjelper søkemotorer med å finne sidene du ønsker crawlet. Robots.txt kontrollerer hvor roboter kan gå.

  • Sitemap forbedrer oppdagelsen
  • Robots.txt kontrollerer krypetilgang

De fleste nettsteder har nytte av å bruke begge deler.

Robots.txt er enkelt, men det er ikke tilgivende. En feil regel kan blokkere nøkkelsider. Denne generatoren hjelper deg å bygge filen trygt.

Sett standardtilgang

Velg om alle roboter kan crawle siden din som standard.

Legg til nettsidekart-URL-en din

Inkluder sidekartet ditt slik at crawlere kan finne viktige sider raskere.

Legg til forbudte stier forsiktig

Blokker kun det du virkelig ikke vil ha crawlet. Start alltid med en fremoverstreket skråstrek, som:

/admin/ eller /søk/

Gjennomgang før publisering

Dobbeltsjekk at du ikke har blokkert hjemmesiden, bloggen, kategorisidene eller hovedtjenestesidene dine.

Robots.txt er én del av teknisk SEO. Disse verktøyene støtter det samme målet og hjelper deg å bekrefte at alt fungerer som det skal:

API-dokumentasjon kommer snart

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.