common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt generátor |
Általános irányelvek
Konfigurálja az összes robot alapértelmezett viselkedését a rétegezés felülírása előtt.
Globális engedélyezési vagy blokkolási szabály beállítása a felhasználói ügynökhöz: *.
Szabályozd a crawlereket, ha a szerverednek levegőhöz kell jutnia.
Opcionális host direktíva tükrözött domainekhez.
Soronként egy elérési út. Támogatja a helyettesítő karaktereket és a sor végén lévő perjeleket.
Biztosítsa, hogy bizonyos mappák akkor is feltérképezhetők maradjanak, ha a szélesebb elérési utak blokkolva vannak.
Soronként egy webhelytérkép URL-t adjon meg. Adjon hozzá további webhelytérkép-indexeket, ha vannak.
Gyakori csúszómászók
Kapcsold be a teljesen blokkolni kívánt robotokat. Hagyd, hogy a fenti alapértelmezett szabályra hagyatkozzanak.
Egyéni szabályok
Felhasználói ügynökök hozzáadása testreszabott engedélyezési vagy blokkolási utasításokkal, feltérképezési késleltetésekkel és oldaltérkép-tippekkel.
Még nincsenek egyéni szabályok. A fenti gombbal hozhat létre egyet.
Pontos vagy helyettesítő karakteres felhasználói ügynök karakterlánc.
Másold le a fent létrehozott fájlt, és töltsd fel a domained gyökerébe robots.txt néven.
Robots.txt generátor a jobb feltérképezés és indexelés érdekében
A Robots.txt egy kis szöveges fájl, amely a keresőrobotokat irányítja webhelyén.
Használja a robots.txt fájlt olyan területek blokkolására, mint az adminisztrátori oldalak, átmeneti mappák, teszt URL-ek, szűrőoldalak és ismétlődő útvonalak.
Mit jelent a Robots.txt a SEO-ban
A Robots.txt a robotok kizárására vonatkozó szabvány része.
sajatdomain.com/robots.txt
A keresőmotorok gyakran korán ellenőrzik ezt a fájlt, mert egyértelmű feltérképezési útmutatást ad nekik.
Egy fontos pont:
- A Robots.txt vezérli a feltérképezést
- Nem garantálja az indexelést
Ha meg szeretné győződni arról, hogy egy oldal megjelenhet a keresési eredmények között, használja az indexelhetőség ellenőrzését.
Miért segít a Robots.txt a feltérképezési költségkeretben?
A keresőmotorok nem minden nap térképeznek fel minden oldalt.
Ha webhelye lassú vagy hibákat ad vissza, előfordulhat, hogy a feltérképező robotok futtatásonként kevesebb oldalt keresnek fel.
A legjobb eredmény érdekében használja a robots.txt fájlt egy webhelytérképpel:
- A Robots.txt eligazítja a robotokat, hogy mit kell feltérképezni vagy kihagyni
- A webhelytérkép felsorolja a feltérképezni és indexelni kívánt oldalakat
A Robots.txt szabályai, amelyeket ismernie kell
A robots.txt fájl néhány egyszerű direktívát használ.
- Felhasználói ügynök
- Beállítja, hogy a szabály melyik botra vonatkozik
- Letiltás
- Blokkolja egy mappa vagy elérési út feltérképezését
- Engedélyezés
- Megnyit egy adott elérési utat egy blokkolt mappán belül
- Feltérképezés késleltetése
- Lassabb feltérképezést kér bizonyos botoknál (nem minden bot követi ezt)
Egy kis hiba fontos oldalakat blokkolhat, beleértve a kulcskategóriákat vagy az alapvető céloldalakat.
Miért van szükség a WordPress webhelyeknek gyakran a Robots.txt fájlra?
A WordPress számos olyan URL-t tud létrehozni, amelyek nem segítik a SEO-t, például belső keresőoldalakat, egyes archív oldalakat és paraméteralapú URL-eket.
A tiszta robots.txt fájl még kisebb webhelyeken is okos beállítás.
A Robots.txt és a webhelytérkép különbsége
A webhelytérkép segít a keresőmotoroknak megtalálni a feltérképezni kívánt oldalakat.
- A Webhelytérkép javítja a felfedezést
- A Robots.txt szabályozza a feltérképezési hozzáférést
A legtöbb webhelynek előnyös mindkettő használata.
Robots.txt létrehozása ezzel a generátorral
A Robots.txt egyszerű, de nem elnéző.
Alapértelmezett hozzáférés beállítása
Válassza ki, hogy alapértelmezés szerint minden bot feltérképezheti-e webhelyét.
Adja hozzá webhelytérképének URL-jét
Szerelje be webhelytérképét, hogy a robotok gyorsabban megtalálják a fontos oldalakat.
Óvatosan adja hozzá a tiltott útvonalakat
Csak azt tiltsa le, amit valóban nem szeretne feltérképezni.
/admin/ vagy /search/
Közzététel előtt tekintse át
Ellenőrizze még egyszer, hogy nem tiltotta-e le kezdőlapját, blogját, kategóriaoldalait vagy fő szolgáltatási oldalait.
Kapcsolódó SEO-eszközök, amelyek jól működnek a Robots.txt fájllal
A Robots.txt a technikai keresőoptimalizálás egyik része.
- Webhelytérkép-ellenőrző: Megerősíti, hogy webhelytérképe érvényes, és a robotok számára könnyen olvasható.
- Google Index-ellenőrző: Ellenőrzi, hogy egy oldal indexelhető-e, és megjelöli a gyakori blokkolókat, például a noindexet.
- HTTP állapotkód ellenőrzése: Megkeresi a 200-as, 301-es, 404-es és szerverhibákat, amelyek lelassíthatják a feltérképezést.
- Ingyenes átirányítás-ellenőrző: Megerősíti, hogy az átirányítások tiszták, és nincsenek láncokban vagy hurkokban ragadva.
- Metacímkék elemzése: felülvizsgálja a címeket, leírásokat és a robots metacímkéket keresőoptimalizálási hibákat keresve.