Fejlesztés alatt

Robots.txt generátor |

Hirdetés

Általános irányelvek

Konfigurálja az összes robot alapértelmezett viselkedését a rétegezés felülírása előtt.

Globális engedélyezési vagy blokkolási szabály beállítása a felhasználói ügynökhöz: *.

Szabályozd a crawlereket, ha a szerverednek levegőhöz kell jutnia.

Opcionális host direktíva tükrözött domainekhez.

Soronként egy elérési út. Támogatja a helyettesítő karaktereket és a sor végén lévő perjeleket.

Biztosítsa, hogy bizonyos mappák akkor is feltérképezhetők maradjanak, ha a szélesebb elérési utak blokkolva vannak.

Soronként egy webhelytérkép URL-t adjon meg. Adjon hozzá további webhelytérkép-indexeket, ha vannak.

Gyakori csúszómászók

Kapcsold be a teljesen blokkolni kívánt robotokat. Hagyd, hogy a fenti alapértelmezett szabályra hagyatkozzanak.

Egyéni szabályok

Felhasználói ügynökök hozzáadása testreszabott engedélyezési vagy blokkolási utasításokkal, feltérképezési késleltetésekkel és oldaltérkép-tippekkel.

Másold le a fent létrehozott fájlt, és töltsd fel a domained gyökerébe robots.txt néven.

Hozzon létre robots.txt fájlokat a keresőmotor feltérképezési viselkedésének szabályozásához.
Table of Contents

A Robots.txt egy kis szöveges fájl, amely a keresőrobotokat irányítja webhelyén.

Használja a robots.txt fájlt olyan területek blokkolására, mint az adminisztrátori oldalak, átmeneti mappák, teszt URL-ek, szűrőoldalak és ismétlődő útvonalak.

A Robots.txt a robotok kizárására vonatkozó szabvány része.

sajatdomain.com/robots.txt

A keresőmotorok gyakran korán ellenőrzik ezt a fájlt, mert egyértelmű feltérképezési útmutatást ad nekik.

Egy fontos pont:

  • A Robots.txt vezérli a feltérképezést
  • Nem garantálja az indexelést

Ha meg szeretné győződni arról, hogy egy oldal megjelenhet a keresési eredmények között, használja az indexelhetőség ellenőrzését.

A keresőmotorok nem minden nap térképeznek fel minden oldalt.

Ha webhelye lassú vagy hibákat ad vissza, előfordulhat, hogy a feltérképező robotok futtatásonként kevesebb oldalt keresnek fel.

A legjobb eredmény érdekében használja a robots.txt fájlt egy webhelytérképpel:

  • A Robots.txt eligazítja a robotokat, hogy mit kell feltérképezni vagy kihagyni
  • A webhelytérkép felsorolja a feltérképezni és indexelni kívánt oldalakat

A robots.txt fájl néhány egyszerű direktívát használ.

  • Felhasználói ügynök
  • Beállítja, hogy a szabály melyik botra vonatkozik
  • Letiltás
  • Blokkolja egy mappa vagy elérési út feltérképezését
  • Engedélyezés
  • Megnyit egy adott elérési utat egy blokkolt mappán belül
  • Feltérképezés késleltetése
  • Lassabb feltérképezést kér bizonyos botoknál (nem minden bot követi ezt)

Egy kis hiba fontos oldalakat blokkolhat, beleértve a kulcskategóriákat vagy az alapvető céloldalakat.

A WordPress számos olyan URL-t tud létrehozni, amelyek nem segítik a SEO-t, például belső keresőoldalakat, egyes archív oldalakat és paraméteralapú URL-eket.

A tiszta robots.txt fájl még kisebb webhelyeken is okos beállítás.

A webhelytérkép segít a keresőmotoroknak megtalálni a feltérképezni kívánt oldalakat.

  • A Webhelytérkép javítja a felfedezést
  • A Robots.txt szabályozza a feltérképezési hozzáférést

A legtöbb webhelynek előnyös mindkettő használata.

A Robots.txt egyszerű, de nem elnéző.

Alapértelmezett hozzáférés beállítása

Válassza ki, hogy alapértelmezés szerint minden bot feltérképezheti-e webhelyét.

Adja hozzá webhelytérképének URL-jét

Szerelje be webhelytérképét, hogy a robotok gyorsabban megtalálják a fontos oldalakat.

Óvatosan adja hozzá a tiltott útvonalakat

Csak azt tiltsa le, amit valóban nem szeretne feltérképezni.

/admin/ vagy /search/

Közzététel előtt tekintse át

Ellenőrizze még egyszer, hogy nem tiltotta-e le kezdőlapját, blogját, kategóriaoldalait vagy fő szolgáltatási oldalait.

A Robots.txt a technikai keresőoptimalizálás egyik része.