Fejlesztés alatt

Robots.txt generátor |

Hirdetés

Általános irányelvek

Konfigurálja az összes robot alapértelmezett viselkedését a rétegezés felülírása előtt.

Globális engedélyezési vagy blokkolási szabály beállítása a felhasználói ügynökhöz: *.

Szabályozd a crawlereket, ha a szerverednek levegőhöz kell jutnia.

Opcionális host direktíva tükrözött domainekhez.

Soronként egy elérési út. Támogatja a helyettesítő karaktereket és a sor végén lévő perjeleket.

Biztosítsa, hogy bizonyos mappák akkor is feltérképezhetők maradjanak, ha a szélesebb elérési utak blokkolva vannak.

Soronként egy webhelytérkép URL-t adjon meg. Adjon hozzá további webhelytérkép-indexeket, ha vannak.

Gyakori csúszómászók

Kapcsold be a teljesen blokkolni kívánt robotokat. Hagyd, hogy a fenti alapértelmezett szabályra hagyatkozzanak.

Egyéni szabályok

Felhasználói ügynökök hozzáadása testreszabott engedélyezési vagy blokkolási utasításokkal, feltérképezési késleltetésekkel és oldaltérkép-tippekkel.

Másold le a fent létrehozott fájlt, és töltsd fel a domained gyökerébe robots.txt néven.

Robots.txt fájlok létrehozása a keresőmotor feltérképezési viselkedésének szabályozásához.
Hirdetés

Tartalomjegyzék

Robots.txt egy kis szövegfájl, amely irányítja a keresőrobotokat az oldaladon. Megmondja a mángálóknak, mely területekhez juthatnak el, és mely utakat érdemes elkerülni. Ez folyamatosan a fontos oldalakra fókuszál, és csökkenti az alacsony értékű URL-eken elpazarolt látogatásokat.

Használd robots.txt olyan területek blokkolására, mint az adminisztrátori oldalak, statisztirovka mappák, teszt URL-ek, szűrési oldalak és duplikált útvonalak. Ha a szabályaid világosak, a keresőmotorok több időt töltenek a fontos oldalaidon. Ez segíthet abban, hogy az új tartalmak gyorsabban felfedezzenek, és tiszta és kiláthatóvá váljanak.

Robots.txt a robotok kizárási szabványának része. A következő helyen helyezed el:

yourdomain.com/robots.txt

A keresőmotorok gyakran korán ellenőrzik ezt a fájlt, mert világos útmutatót ad a másolási útra. Ha az oldalad kicsi, akkor is indexelhetik, ha nincs robots.txt fájl. Nagyobb oldalakon azonban a hiányzó útmutató pazarolódáshoz és lassabb kulcsoldalak felfedezéséhez vezethet.

Egy fontos pont:

  • Robots.txt kúszót irányít
  • Ez nem garantálja az indexelést

Ha meg akarod erősíteni, hogy egy oldal megjelenhet a keresési eredményekben, használj indexelhetőségi ellenőrzést. Ez segít felismerni olyan jeleket, mint a noindex, a blokkolt erőforrások vagy más problémák, amelyeket robots.txt nem fed le.

A keresőmotorok nem minden oldalt köröznek minden nap. Korlátok és jelek alapján futtatnak át, mint például az oldal sebessége, szerver állapota és a tartalom változikásának gyakorisága.

Ha az oldalad lassú vagy hibákat ad vissza, a crawlerek kevesebb oldalt látogathatnak meg futás közben. Ez késleltetheti az új bejegyzések és frissített oldalak indexelését. Robots.txt segít abban, hogy csökkenti a kárba esett körbemenéseket, így a botok több időt töltenek azokon az oldalakon, amelyekre ténylegesen szeretnéd koncentrálniuk.

A legjobb eredmény érdekében robots.txt oldaltérképet használjon:

  • Robots.txt vezeti a botokot, hogy mit mászzanak vagy kihagyjanak
  • A Sitemap felsorolja azokat az oldalakat, amelyeket szeretnél bemásolni és indexelni

Egy robots.txt fájl néhány egyszerű utasítást használ. Könnyen olvashatók, de óvatosan kell megírni őket.

  • User-agent
  • Állítják be, melyik botra vonatkozik a szabály
  • Tiltsd meg
  • Blokkok, amelyek egy mappához vagy úthoz kúsznak
  • Engedd meg
  • Egy adott útvonalat nyit egy blokkolt mappában
  • Kúszás-késleltetés
  • Egyes botok esetében a kérések lassabb feltérképezés (nem minden bot követi ezt)

Egy apró hiba is blokkolhatja a fontos oldalakat, beleértve a kulcsfontosságú kategóriákat vagy a fő belépőoldalakat. Ezért biztonságosabb a generátor használata, mint mindent kézzel írni.

A WordPress sok olyan URL-t tud létrehozni, amelyek nem segítik a SEO-t, például belső keresőoldalakat, néhány archív oldalt és paraméteralapú URL-eket. Az alacsony értékű területek blokkolása segít a crawlereknek több időt tölteni a fő oldalakon, blogbejegyzéseken, valamint termék- vagy szolgáltatásoldalain.

Még kisebb oldalakon is egy tiszta robots.txt fájl okos megoldás. Ez rendezi a crawl szabályaidat, ahogy az oldal növekszik.

Egy oldaltérkép segít a keresőmotoroknak megtalálni azokat az oldalakat, amelyeket szeretnél bemásolni. Robots.txt a botok által irányítható.

  • A helyszíntérkép javítja a felfedezést
  • Robots.txt kontrollálja a kúszó hozzáférést

A legtöbb weboldal mindkettőt használja előnyösen.

Robots.txt egyszerű, de nem megbocsátó. Egy rossz szabály blokkolhatja a kulcsoldalakat. Ez a generátor segít biztonságosan felépíteni a fájlt.

Alapértelmezett hozzáférés beállítása

Válaszd meg, hogy minden bot alapértelmezettben átnézheti-e az oldaladat.

Add hozzá a weboldaltérkép URL-jét

Csatold be az oldaltérképedet, hogy a crawlerek gyorsabban megtalálják fontos oldalaidat.

Óvatosan add hozzá tiltott utakat

Csak azokat blokkold, amiket tényleg nem akarsz mászni. Mindig kezdj előre vágóval, például:

/admin/ vagy /keresés/

Áttekintés a megjelenés előtt

Ellenőrizd a legjobban, hogy nem tiltottad le a kezdőlapodat, blogodat, kategóriaoldalaidat vagy fő szolgáltatási oldalaidat.

Robots.txt a technikai SEO egyik része. Ezek az eszközök ugyanazt a célt támogatják, és segítenek megerősíteni, hogy minden rendesen működik:

API dokumentáció hamarosan

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.