Kehitysvaiheessa

Robots.txt-generaattori |

Mainos

Yleiset ohjeet

Määritä kaikkien indeksointirobottien oletustoiminta ennen kerrostuksen ohituksia.

Aseta yleinen sallimis- tai estosääntö käyttäjäagentille: *.

Rajoita indeksointirobottien käyttöä, jos palvelimesi tarvitsee hengähdystauon.

Valinnainen isäntädirektiivi peilatuille verkkotunnuksille.

Yksi polku riviä kohden. Tukee jokerimerkkejä ja lopussa olevia kauttaviivoja.

Varmista, että tietyt kansiot pysyvät indeksoitavissa, vaikka laajemmat polut olisivat estetty.

Anna yksi sivustokartan URL-osoite riviä kohden. Lisää muita sivustokarttaindeksejä, jos sinulla on niitä.

Yleiset ryömijät

Vaihda kokonaan estettävät indeksointirobotit päälle/pois. Anna niiden käyttää yllä olevaa oletussääntöä.

Mukautetut säännöt

Lisää käyttäjäagentteja, joissa on räätälöityjä sallimis- tai estokäskyjä, indeksointiviiveitä ja sivustokarttavinjekttejä.

Kopioi yllä oleva luotu tiedosto ja lataa se verkkotunnuksesi juureen nimellä robots.txt.

Luo robots.txt-tiedostoja hallitaksesi hakukoneen indeksointia.
Mainos

Sisällysluettelo

Robots.txt on pieni tekstitiedosto, joka ohjaa hakubotteja sivustollasi. Se kertoo ryömijöille, mihin alueisiin he pääsevät ja mitä reittejä heidän tulisi välttää. Tämä pitää indeksoinnin keskittyneenä tärkeisiin sivuihin ja vähentää hukkaan menneitä käyntejä matalan arvon URL-osoitteilla.

Käytä robots.txt estämään alueita kuten ylläpitäjäsivut, staging-kansiot, testi-URL-osoitteet, suodatussivut ja päällekkäiset polut. Kun sääntösi ovat selkeät, hakukoneet käyttävät enemmän aikaa tärkeisiin sivuihisi. Se voi auttaa uutta sisältöä löytymään nopeammin ja pysymään puhtaana ja ennustettavana.

Robots.txt on osa robottien poissulkemisstandardia. Asetat sen osoitteeseen:

yourdomain.com/robots.txt

Hakukoneet tarkistavat usein tämän tiedoston ajoissa, koska se antaa selkeät ohjeet indeksointiin. Jos sivustosi on pieni, se saattaa silti indeksoida ilman robots.txt-tiedostoa. Mutta suuremmilla sivustoilla puuttuva ohjeistus voi johtaa hukkaan heitettyyn indeksointiin ja avainsivujen hitaampiin löytämiseen.

Yksi tärkeä seikka:

  • Robots.txt ohjaa ryömimistä
  • Se ei takaa indeksointia

Jos haluat varmistaa, että sivu voi näkyä hakutuloksissa, käytä indeksointitarkistusta. Se auttaa tunnistamaan signaaleja kuten noindexin, estyneet resurssit tai muut ongelmat, joita robots.txt ei kata.

Hakukoneet eivät indeksoi jokaista sivua joka päivä. Ne indeksoivat rajoitusten ja signaalien, kuten sivuston nopeuden, palvelimen kunnon ja sisällön vaihtumisen tiheyden perusteella.

Jos sivustosi on hidas tai palauttaa virheitä, indeksoijat saattavat vierailla harvemmilla sivuilla per käyttökierros. Se voi viivästyttää uusien julkaisujen ja päivitettyjen sivujen indeksointia. Robots.txt auttaa vähentämällä hukkaan heitettyjä indeksejä, jolloin botit viettävät enemmän aikaa niillä sivuilla, joihin haluat heidän keskittyvän.

Parhaan tuloksen saavuttamiseksi käytä robots.txt sivukartan kanssa:

  • Robots.txt ohjaa botteja ryömimään tai ohittamaan
  • Sivukartta listaa sivut, jotka haluat indeksoida ja indeksoida

robots.txt-tiedosto käyttää muutamia yksinkertaisia ohjeita. Ne ovat helppolukuisia, mutta ne täytyy kirjoittaa huolellisesti.

  • Käyttäjäagentti
  • Määrittää, mihin bottiin sääntö soveltuu
  • Kielto
  • Lohkot, jotka etsivät kansiota tai polkua
  • Salli
  • Avaa tietyn polun estetyn kansion sisällä
  • Ryömintäviive
  • Pyynnöt indeksoivat hitaammin joillakin boteilla (kaikki botit eivät noudata sitä)

Pieni virhe voi estää tärkeitä sivuja, mukaan lukien avainkategoriat tai ydinlaskeutumissivut. Siksi generaattorin käyttö on turvallisempaa kuin kaiken kirjoittaminen käsin.

WordPress voi luoda monia URL-osoitteita, jotka eivät auta hakukoneoptimointia, kuten sisäisiä hakusivuja, joitakin arkistosivuja ja parametripohjaisia URL-osoitteita. Matalan arvon alueiden estäminen auttaa indeksoijia viettämään enemmän aikaa pääsivuillasi, blogikirjoituksillasi sekä tuote- tai palvelusivuillasi.

Jopa pienemmillä sivustoilla puhdas robots.txt-tiedosto on fiksu ratkaisu. Se pitää indeksointisäännöt järjestyksessä sivuston kasvaessa.

Sivukartta auttaa hakukoneita löytämään haluamasi sivut. Robots.txt ohjaimet, minne botit voivat mennä.

  • Sivustokartta parantaa havaintoa
  • Robots.txt ohjaa crawling-pääsyä

Useimmat sivustot hyötyvät molempien käytöstä.

Robots.txt on yksinkertaista, mutta ei anteeksiantavaa. Yksi väärä sääntö voi estää avainsivut. Tämä generaattori auttaa sinua rakentamaan tiedoston turvallisesti.

Aseta oletuspääsy

Valitse, voivatko kaikki botit indeksoida sivustoasi oletuksena.

Lisää sivukartta-URL

Sisällytä sivukarttasi, jotta indeksoijat löytävät tärkeät sivusi nopeammin.

Lisää kielletyt polut huolellisesti

Estä vain se, mitä et oikeasti halua ryömittävän. Aloita aina eteenpäin suuntautuvalla viillolla, kuten:

/admin/ tai /search/

Arvostelu ennen julkaisua

Varmista vielä kerran, ettet ole estänyt etusivuasi, blogiasi, kategoriasivujasi tai pääpalvelusivujasi.

Robots.txt on osa teknistä SEO:ta. Nämä työkalut tukevat samaa tavoitetta ja auttavat varmistamaan, että kaikki toimii oikein:

API-dokumentaatio tulossa pian

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.