Vo vývoji

Generátor Robots.txt |

Reklama

Všeobecné smernice

Pred prepísaním vrstvenia nakonfigurujte predvolené správanie pre všetky prehľadávače.

Nastaviť globálne pravidlo povolenia alebo blokovania pre používateľského agenta: *.

Ak váš server potrebuje priestor na dýchanie, obmedzte prehľadávače.

Voliteľná hostiteľská direktíva pre zrkadlené domény.

Jedna cesta na riadok. Podporuje zástupné znaky a koncové lomítka.

Zabezpečte, aby konkrétne priečinky zostali prehľadávateľné, aj keď sú blokované širšie cesty.

Uveďte jednu URL adresu súboru sitemap na riadok. Pridajte ďalšie indexy súborov sitemap, ak ich máte.

Bežné prehľadávače

Prepnite prehľadávače, ktoré chcete úplne zablokovať. Nechajte ich, aby sa spoliehali na predvolené pravidlo uvedené vyššie.

Vlastné pravidlá

Pridajte používateľských agentov s prispôsobenými direktívami povoľovania alebo blokovania, oneskoreniami prehľadávania a radami pre mapu stránok.

Skopírujte vygenerovaný súbor vyššie a nahrajte ho do koreňového adresára vašej domény ako robots.txt.

Generujte súbory robots.txt na kontrolu správania pri prehľadávaní vyhľadávacieho nástroja.
Reklama

Obsah

Robots.txt je malý textový súbor, ktorý usmerňuje vyhľadávacie boty na vašej stránke. Hovorí crawlerom, do ktorých oblastí môžu vstúpiť a ktorým cestám sa majú vyhnúť. To udržiava prehľadávanie zamerané na stránky, na ktorých záleží, a znižuje zbytočné návštevy na nízkohodnotných URL.

Použite robots.txt na blokovanie oblastí ako administrátorské stránky, priečinky na staging, testovacie URL, filtračné stránky a duplicitné cesty. Keď sú vaše pravidlá jasné, vyhľadávače venujú viac času vašim dôležitým stránkam. To môže pomôcť objaviť nový obsah rýchlejšie a udržať prehľad a predvídateľnosť.

Robots.txt je súčasťou štandardu vylúčenia robotov. Umiestnite ho na:

yourdomain.com/robots.txt

Vyhľadávače často kontrolujú tento súbor včas, pretože im poskytuje jasné pokyny na prehľadávanie. Ak je vaša stránka malá, môže byť stále indexovaná aj bez robots.txt súboru. Na väčších stránkach však chýbajúce usmernenia môžu viesť k zbytočnému prehľadávaniu a pomalšiemu objavovaniu kľúčových stránok.

Jedna dôležitá vec:

  • Robots.txt ovláda plazenie
  • Nezaručuje indexovanie

Ak chcete potvrdiť, že stránka sa môže zobraziť vo výsledkoch vyhľadávania, použite kontrolu indexovateľnosti. To vám pomôže rozpoznať signály ako noindex, blokované zdroje alebo iné problémy, ktoré robots.txt nepokrýva.

Vyhľadávače neprehľadávajú každú stránku každý deň. Prehľadávajú na základe limitov a signálov, ako je rýchlosť stránky, stav servera a frekvencia zmien obsahu.

Ak je vaša stránka pomalá alebo vracia chyby, prehľadávače môžu navštíviť menej stránok za jeden beh. To môže spomaliť indexovanie nových príspevkov a aktualizovaných stránok. Robots.txt pomáha tým, že znižuje zbytočné prehľadávanie, takže boty trávia viac času na stránkach, na ktoré sa naozaj chcú zamerať.

Pre najlepšie výsledky použite robots.txt s mapou stránky:

  • Robots.txt vedie botov, čo majú prehľadávať alebo preskakovať
  • Sitemap uvádza stránky, ktoré chcete prehľadávať a indexovať

robots.txt súbor používa niekoľko jednoduchých direktív. Sú ľahko čitateľné, ale musíte ich písať opatrne.

  • User-agent
  • Množiny, na ktorého bota sa pravidlo vzťahuje
  • Zákaz
  • Bloky prehľadávajúce priečinok alebo cestu
  • Povoliť
  • Otvorí konkrétnu cestu v zablokovanom priečinku
  • Crawl-delay
  • Niektoré boty pomalšie prehľadávajú požiadavky (nie všetky boty to dodržiavajú)

Malá chyba môže zablokovať dôležité stránky, vrátane kľúčových kategórií alebo hlavných vstupných stránok. Preto je používanie generátora bezpečnejšie ako písanie všetkého ručne.

WordPress dokáže vytvárať mnoho URL, ktoré SEO nepomáhajú, napríklad interné vyhľadávacie stránky, niektoré archívne stránky a URL založené na parametroch. Blokovanie oblastí s nízkou hodnotou pomáha prehľadávačom tráviť viac času na vašich hlavných stránkach, blogových príspevkoch a stránkach produktov či služieb.

Aj na menších stránkach je čistý robots.txt súbor rozumné riešenie. Udržiava pravidlá prehľadávania organizované, ako stránka rastie.

Sitemapa pomáha vyhľadávačom nájsť stránky, ktoré chcete prehľadávať. Robots.txt ovláda, kam môžu boty ísť.

  • Sitemap zlepšuje objavovanie
  • Robots.txt ovláda prehľadávajúci prístup

Väčšina webových stránok profituje z používania oboch.

Robots.txt je jednoduchá, ale nie je odpúšťajúca. Jedno nesprávne pravidlo môže zablokovať kľúčové stránky. Tento generátor vám pomôže bezpečne vytvoriť súbor.

Nastavte predvolený prístup

Zvoľte, či všetky boty môžu predvolene prehľadávať vašu stránku.

Pridajte URL svojej sitemapy

Zahrňte svoju sitemapu, aby prehľadávači mohli rýchlejšie nájsť vaše dôležité stránky.

Opatrne pridávajte zakázané cesty

Blokujte len to, čo naozaj nechcete, aby bolo prehľadávané. Vždy začínajte prednou čiarkou, napríklad:

/admin/ alebo /vyhľadávanie/

Recenzia pred vydaním

Dvakrát si skontrolujte, či ste nezablokovali svoju domovskú stránku, blog, kategórie alebo hlavné stránky služieb.

Robots.txt je jednou z častí technického SEO. Tieto nástroje podporujú rovnaký cieľ a pomáhajú vám potvrdiť, že všetko funguje správne:

Dokumentácia API čoskoro k dispozícii

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.