Ve vývoji

Generátor Robots.txt |

Inzerát

Obecné směrnice

Před přepsáním vrstev nakonfigurujte výchozí chování pro všechny prohledávače.

Nastavte globální pravidlo povolení nebo blokování pro User-agent: *.

Pokud váš server potřebuje prostor pro nadechnutí, omezte crawlery.

Volitelná direktiva host pro zrcadlené domény.

Jedna cesta na řádek. Podporuje zástupné znaky a koncová lomítka.

Zajistěte, aby určité složky zůstaly procházitelné, i když jsou blokovány širší cesty.

Na každý řádek uveďte jednu URL adresu souboru Sitemap. Pokud máte další indexy souborů Sitemap, přidejte je.

Běžní roboti

Přepněte prohledávače, které chcete zcela zablokovat. Nechte je, aby se spoléhaly na výše uvedené výchozí pravidlo.

Vlastní pravidla

Přidejte uživatelské agenty s přizpůsobenými direktivami pro povolení nebo blokování, zpožděním procházení a nápovědami k souboru Sitemap.

Zkopírujte výše vygenerovaný soubor a nahrajte ho do kořenového adresáře vaší domény jako robots.txt.

Generujte soubory robots.txt pro ovládání chování vyhledávače při procházení.
Inzerát

Obsah

Robots.txt je malý textový soubor, který vede vyhledávací roboty na vašem webu. Říká crawlerům, do kterých oblastí mají přístup a kterým cestám by se měli vyhnout. To udržuje procházení zaměřené na stránky, na kterých záleží, a snižuje zbytečné návštěvy na nízkohodnotných URL.

Použijte robots.txt k blokování oblastí jako administrátorské stránky, složky pro staging (staging), testovací URL, filtrační stránky a duplicitní cesty. Když jsou vaše pravidla jasná, vyhledávače tráví více času na důležitých stránkách. To může pomoci objevovat nový obsah rychleji a udržet čistý a předvídatelný prohled.

Robots.txt je součástí standardu pro vyloučení robotů. Umisťujete ho na:

yourdomain.com/robots.txt

Vyhledávače často kontrolují tento soubor včas, protože jim poskytuje jasné pokyny k procházení. Pokud je váš web malý, může být indexován i bez robots.txt souboru. Na větších stránkách však chybějící pokyny mohou vést k nevyužitému procházení a pomalejšímu objevování klíčových stránek.

Jedna důležitá věc:

  • Robots.txt ovládá plazení
  • Nezaručuje to indexaci

Pokud chcete potvrdit, že stránka se může objevit ve výsledcích vyhledávání, použijte kontrolu indexovatelnosti. To vám pomůže rozpoznat signály jako noindex, blokované zdroje nebo jiné problémy, které robots.txt nepokrývá.

Vyhledávače neprohledávají každou stránku každý den. Crawlují na základě limitů a signálů, jako je rychlost webu, stav serveru a jak často se váš obsah mění.

Pokud je váš web pomalý nebo vrací chyby, mohou crawlery navštívit méně stránek při jednom běhu. To může zpozdit indexování nových příspěvků a aktualizovaných stránek. Robots.txt pomáhá tím, že snižuje zbytečné procházení, takže boti tráví více času na stránkách, na které je skutečně chcete zaměřit.

Pro nejlepší výsledky použijte robots.txt s mapou stránek:

  • Robots.txt vede boty, co mají crawlovat nebo přeskakovat
  • Sitemap uvádí stránky, které chcete procházet a indexovat

robots.txt soubor používá několik jednoduchých direktiv. Jsou snadno čitelné, ale musíte je psát pečlivě.

  • User-agent
  • Množiny, na které boty se pravidlo vztahuje
  • Zakázáno
  • Bloky hledající složku nebo cestu
  • Povolit
  • Otevře konkrétní cestu uvnitř blokované složky
  • Crawl-delay
  • Některé boty pomalejší procházení požadavků (ne všichni boti to dodržují)

Malá chyba může zablokovat důležité stránky, včetně klíčových kategorií nebo hlavních vstupních stránek. Proto je používání generátoru bezpečnější než psát vše ručně.

WordPress může vytvářet mnoho URL, které SEO nepomáhají, například interní vyhledávací stránky, některé archivní stránky a URL založené na parametrech. Blokování oblastí s nízkou hodnotou pomáhá crawlerům trávit více času na vašich hlavních stránkách, blogových příspěvcích a stránkách produktů či služeb.

I na menších stránkách je čistý robots.txt soubor chytrým řešením. Udržuje pravidla pro procházení organizovaná, jak web roste.

Mapa stránek pomáhá vyhledávačům najít stránky, které chcete prohledat. Robots.txt ovládá, kam mohou boti jít.

  • Sitemap zlepšuje objevování
  • Robots.txt řídí procházející přístup

Většina webů těží z používání obojího.

Robots.txt je jednoduché, ale není to shovívavé. Jedno špatné pravidlo může zablokovat klíčové stránky. Tento generátor vám pomůže bezpečně vytvořit soubor.

Nastavte výchozí přístup

Zvolte, zda všichni boti mohou procházet váš web ve výchozím nastavení.

Přidejte URL své mapy stránek

Zahrňte svou sitemapu, aby crawleri mohli rychleji najít vaše důležité stránky.

Pečlivě přidávejte zakázané cesty

Blokujte jen to, co opravdu nechcete, aby bylo prolezeno. Vždy začínejte předním lometem, například:

/admin/ nebo /hledat/

Recenze před vydáním

Dvakrát si zkontrolujte, zda jste nezablokovali domovskou stránku, blog, kategorie nebo hlavní stránky služeb.

Robots.txt je jednou z částí technického SEO. Tyto nástroje podporují stejný cíl a pomáhají vám potvrdit, že vše funguje správně:

Dokumentace k API bude brzy k dispozici

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.