common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt generátor |
Általános irányelvek
Konfigurálja az összes robot alapértelmezett viselkedését a rétegezés felülírása előtt.
Globális engedélyezési vagy blokkolási szabály beállítása a felhasználói ügynökhöz: *.
Szabályozd a crawlereket, ha a szerverednek levegőhöz kell jutnia.
Opcionális host direktíva tükrözött domainekhez.
Soronként egy elérési út. Támogatja a helyettesítő karaktereket és a sor végén lévő perjeleket.
Biztosítsa, hogy bizonyos mappák akkor is feltérképezhetők maradjanak, ha a szélesebb elérési utak blokkolva vannak.
Soronként egy webhelytérkép URL-t adjon meg. Adjon hozzá további webhelytérkép-indexeket, ha vannak.
Gyakori csúszómászók
Kapcsold be a teljesen blokkolni kívánt robotokat. Hagyd, hogy a fenti alapértelmezett szabályra hagyatkozzanak.
Egyéni szabályok
Felhasználói ügynökök hozzáadása testreszabott engedélyezési vagy blokkolási utasításokkal, feltérképezési késleltetésekkel és oldaltérkép-tippekkel.
Még nincsenek egyéni szabályok. A fenti gombbal hozhat létre egyet.
Pontos vagy helyettesítő karakteres felhasználói ügynök karakterlánc.
Másold le a fent létrehozott fájlt, és töltsd fel a domained gyökerébe robots.txt néven.
Tartalomjegyzék
Robots.txt Generátor a jobb crawlinghoz és indexeléshez
Robots.txt egy kis szövegfájl, amely irányítja a keresőrobotokat az oldaladon. Megmondja a mángálóknak, mely területekhez juthatnak el, és mely utakat érdemes elkerülni. Ez folyamatosan a fontos oldalakra fókuszál, és csökkenti az alacsony értékű URL-eken elpazarolt látogatásokat.
Használd robots.txt olyan területek blokkolására, mint az adminisztrátori oldalak, statisztirovka mappák, teszt URL-ek, szűrési oldalak és duplikált útvonalak. Ha a szabályaid világosak, a keresőmotorok több időt töltenek a fontos oldalaidon. Ez segíthet abban, hogy az új tartalmak gyorsabban felfedezzenek, és tiszta és kiláthatóvá váljanak.
Mit jelent Robots.txt a SEO-ban
Robots.txt a robotok kizárási szabványának része. A következő helyen helyezed el:
yourdomain.com/robots.txt
A keresőmotorok gyakran korán ellenőrzik ezt a fájlt, mert világos útmutatót ad a másolási útra. Ha az oldalad kicsi, akkor is indexelhetik, ha nincs robots.txt fájl. Nagyobb oldalakon azonban a hiányzó útmutató pazarolódáshoz és lassabb kulcsoldalak felfedezéséhez vezethet.
Egy fontos pont:
- Robots.txt kúszót irányít
- Ez nem garantálja az indexelést
Ha meg akarod erősíteni, hogy egy oldal megjelenhet a keresési eredményekben, használj indexelhetőségi ellenőrzést. Ez segít felismerni olyan jeleket, mint a noindex, a blokkolt erőforrások vagy más problémák, amelyeket robots.txt nem fed le.
Miért segít Robots.txt a kúszó költségvetésben
A keresőmotorok nem minden oldalt köröznek minden nap. Korlátok és jelek alapján futtatnak át, mint például az oldal sebessége, szerver állapota és a tartalom változikásának gyakorisága.
Ha az oldalad lassú vagy hibákat ad vissza, a crawlerek kevesebb oldalt látogathatnak meg futás közben. Ez késleltetheti az új bejegyzések és frissített oldalak indexelését. Robots.txt segít abban, hogy csökkenti a kárba esett körbemenéseket, így a botok több időt töltenek azokon az oldalakon, amelyekre ténylegesen szeretnéd koncentrálniuk.
A legjobb eredmény érdekében robots.txt oldaltérképet használjon:
- Robots.txt vezeti a botokot, hogy mit mászzanak vagy kihagyjanak
- A Sitemap felsorolja azokat az oldalakat, amelyeket szeretnél bemásolni és indexelni
Robots.txt szabályok, amiket tudnod kell
Egy robots.txt fájl néhány egyszerű utasítást használ. Könnyen olvashatók, de óvatosan kell megírni őket.
- User-agent
- Állítják be, melyik botra vonatkozik a szabály
- Tiltsd meg
- Blokkok, amelyek egy mappához vagy úthoz kúsznak
- Engedd meg
- Egy adott útvonalat nyit egy blokkolt mappában
- Kúszás-késleltetés
- Egyes botok esetében a kérések lassabb feltérképezés (nem minden bot követi ezt)
Egy apró hiba is blokkolhatja a fontos oldalakat, beleértve a kulcsfontosságú kategóriákat vagy a fő belépőoldalakat. Ezért biztonságosabb a generátor használata, mint mindent kézzel írni.
Miért van gyakran szükség a WordPress oldalaknak Robots.txt
A WordPress sok olyan URL-t tud létrehozni, amelyek nem segítik a SEO-t, például belső keresőoldalakat, néhány archív oldalt és paraméteralapú URL-eket. Az alacsony értékű területek blokkolása segít a crawlereknek több időt tölteni a fő oldalakon, blogbejegyzéseken, valamint termék- vagy szolgáltatásoldalain.
Még kisebb oldalakon is egy tiszta robots.txt fájl okos megoldás. Ez rendezi a crawl szabályaidat, ahogy az oldal növekszik.
Robots.txt és oldaltérkép különbségei
Egy oldaltérkép segít a keresőmotoroknak megtalálni azokat az oldalakat, amelyeket szeretnél bemásolni. Robots.txt a botok által irányítható.
- A helyszíntérkép javítja a felfedezést
- Robots.txt kontrollálja a kúszó hozzáférést
A legtöbb weboldal mindkettőt használja előnyösen.
Hogyan hozhatunk létre Robots.txt ezzel a generátorral
Robots.txt egyszerű, de nem megbocsátó. Egy rossz szabály blokkolhatja a kulcsoldalakat. Ez a generátor segít biztonságosan felépíteni a fájlt.
Alapértelmezett hozzáférés beállítása
Válaszd meg, hogy minden bot alapértelmezettben átnézheti-e az oldaladat.
Add hozzá a weboldaltérkép URL-jét
Csatold be az oldaltérképedet, hogy a crawlerek gyorsabban megtalálják fontos oldalaidat.
Óvatosan add hozzá tiltott utakat
Csak azokat blokkold, amiket tényleg nem akarsz mászni. Mindig kezdj előre vágóval, például:
/admin/ vagy /keresés/
Áttekintés a megjelenés előtt
Ellenőrizd a legjobban, hogy nem tiltottad le a kezdőlapodat, blogodat, kategóriaoldalaidat vagy fő szolgáltatási oldalaidat.
Kapcsolódó SEO eszközök, amelyek jól működnek Robots.txt
Robots.txt a technikai SEO egyik része. Ezek az eszközök ugyanazt a célt támogatják, és segítenek megerősíteni, hogy minden rendesen működik:
- Oldaltérkép-ellenőrző: Megerősíti, hogy a weboldaltérképed érvényes és könnyen olvasható a botok számára.
- Google Index Checker: Ellenőrizi, hogy egy oldal indexelhető-e, és megjelöli a gyakori blokkolókat, mint például a noindex.
- Ellenőrizze a HTTP státuszkódot: 200, 301, 404 és szerver hibákat talál, amelyek lassíthatják a felkérést.
- Ingyenes átirányítási ellenőrző: Megerősíti, hogy az átirányítások tiszták, nem ragadtak láncokban vagy hurkokba.
- Meta címkék elemzése: Címeket, leírásokat és robot metacímkéket néz át SEO hibák után.
API dokumentáció hamarosan
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.