Under utvikling

Robots.txt Generator |

Annonse

Generelle direktiver

Konfigurer standardvirkemåte for alle robotsøkeprogrammer før lagoverstyringer.

Angi en global tillatelses- eller blokkeringsregel for brukeragent: *.

Reduser hastigheten på crawlere hvis serveren din trenger pusterom.

Valgfritt vertsdirektiv for speilede domener.

Én sti per linje. Støtter jokertegn og etterfølgende skråstreker.

Sørg for at bestemte mapper fortsatt kan gjennomsøkes selv når bredere stier er blokkert.

Oppgi én nettadresse for nettstedskartet per linje. Legg til flere nettstedskartindekser hvis du har noen.

Vanlige kryper

Aktiver/deaktiver robotsøkeprogrammene du vil blokkere helt. La dem være avhengige av standardregelen ovenfor.

Tilpassede regler

Legg til brukeragenter med skreddersydde tillatelses- eller blokkeringsdirektiver, gjennomsøkingsforsinkelser og tips til nettstedskart.

Kopier den genererte filen ovenfor og last den opp til roten av domenet ditt som robots.txt.

Generer robots.txt-filer for å kontrollere søkemotorens gjennomgang.
Table of Contents

Robots.txt er en liten tekstfil som veileder søkeroboter på nettstedet ditt.

Bruk robots.txt til å blokkere områder som administratorsider, oppsamlingsmapper, test-URL-er, filtreringssider og dupliserte baner.

Robots.txt er en del av eksklusjonsstandarden for roboter.

dittdomene.com/robots.txt

Søkemotorer sjekker ofte denne filen tidlig fordi den gir dem klare veibeskrivelser.

Et viktig poeng:

  • Robots.txt kontrollerer gjennomgang
  • Det garanterer ikke indeksering

Hvis du vil bekrefte at en side kan vises i søkeresultater, bruk en indekserbarhetssjekk.

Søkemotorer gjennomsøker ikke hver side hver dag.

Hvis nettstedet ditt er tregt eller returnerer feil, kan søkerobotene besøke færre sider per kjøring.

For best resultat, bruk robots.txt med et nettstedskart:

  • Robots.txt veileder roboter om hva de skal gjennomsøke eller hoppe over
  • Nettkart viser sidene du vil ha gjennomsøkt og indeksert

En robots.txt-fil bruker noen få enkle direktiver.

  • Brukeragent
  • Angir hvilken bot regelen gjelder for
  • Ikke tillat
  • Blokkerer gjennomsøking for en mappe eller bane
  • Tillat
  • Åpner en bestemt bane i en blokkert mappe
  • Gjennomsøkingsforsinkelse
  • Ber om langsommere gjennomgang for noen roboter (ikke alle roboter følger den)

En liten feil kan blokkere viktige sider, inkludert nøkkelkategorier eller kjernelandingssider.

WordPress kan lage mange URL-er som ikke hjelper SEO, for eksempel interne søkesider, enkelte arkivsider og parameterbaserte URL-er.

Selv på mindre nettsteder er en ren robots.txt-fil et smart oppsett.

Et nettstedskart hjelper søkemotorer med å finne sidene du vil gjennomsøke.

  • Nettkart forbedrer oppdagelsen
  • Robots.txt kontrollerer gjennomsøkingstilgang

De fleste nettsteder drar nytte av å bruke begge.

Robots.txt er enkelt, men det er ikke tilgivende.

Angi standardtilgang

Velg om alle roboter kan gjennomsøke nettstedet ditt som standard.

Legg til nettkartet ditt

Inkluder nettstedskartet ditt slik at robotsøkeprogrammer kan finne de viktige sidene dine raskere.

Legg forsiktig til ikke-tillatte baner

Blokker bare det du virkelig ikke vil ha gjennomgått.

/admin/ eller /search/

Gjennomgå før publisering

Dobbeltsjekk at du ikke blokkerte hjemmesiden, bloggen, kategorisidene eller hovedtjenestesidene dine.

Robots.txt er en del av teknisk SEO.