common.you_need_to_be_loggedin_to_add_tool_in_favorites
Generátor Robots.txt |
Obecné směrnice
Před přepsáním vrstev nakonfigurujte výchozí chování pro všechny prohledávače.
Nastavte globální pravidlo povolení nebo blokování pro User-agent: *.
Pokud váš server potřebuje prostor pro nadechnutí, omezte crawlery.
Volitelná direktiva host pro zrcadlené domény.
Jedna cesta na řádek. Podporuje zástupné znaky a koncová lomítka.
Zajistěte, aby určité složky zůstaly procházitelné, i když jsou blokovány širší cesty.
Na každý řádek uveďte jednu URL adresu souboru Sitemap. Pokud máte další indexy souborů Sitemap, přidejte je.
Běžní roboti
Přepněte prohledávače, které chcete zcela zablokovat. Nechte je, aby se spoléhaly na výše uvedené výchozí pravidlo.
Vlastní pravidla
Přidejte uživatelské agenty s přizpůsobenými direktivami pro povolení nebo blokování, zpožděním procházení a nápovědami k souboru Sitemap.
Zatím žádná vlastní pravidla. Vytvořte si vlastní pravidlo pomocí tlačítka výše.
Přesný nebo zástupný řetězec user-agent.
Zkopírujte výše vygenerovaný soubor a nahrajte ho do kořenového adresáře vaší domény jako robots.txt.
Obsah
Robots.txt generátor pro lepší procházení a indexování
Robots.txt je malý textový soubor, který vede vyhledávací roboty na vašem webu. Říká crawlerům, do kterých oblastí mají přístup a kterým cestám by se měli vyhnout. To udržuje procházení zaměřené na stránky, na kterých záleží, a snižuje zbytečné návštěvy na nízkohodnotných URL.
Použijte robots.txt k blokování oblastí jako administrátorské stránky, složky pro staging (staging), testovací URL, filtrační stránky a duplicitní cesty. Když jsou vaše pravidla jasná, vyhledávače tráví více času na důležitých stránkách. To může pomoci objevovat nový obsah rychleji a udržet čistý a předvídatelný prohled.
Co Robots.txt znamená v SEO
Robots.txt je součástí standardu pro vyloučení robotů. Umisťujete ho na:
yourdomain.com/robots.txt
Vyhledávače často kontrolují tento soubor včas, protože jim poskytuje jasné pokyny k procházení. Pokud je váš web malý, může být indexován i bez robots.txt souboru. Na větších stránkách však chybějící pokyny mohou vést k nevyužitému procházení a pomalejšímu objevování klíčových stránek.
Jedna důležitá věc:
- Robots.txt ovládá plazení
- Nezaručuje to indexaci
Pokud chcete potvrdit, že stránka se může objevit ve výsledcích vyhledávání, použijte kontrolu indexovatelnosti. To vám pomůže rozpoznat signály jako noindex, blokované zdroje nebo jiné problémy, které robots.txt nepokrývá.
Proč Robots.txt pomáhá s rozpočtem na crawl
Vyhledávače neprohledávají každou stránku každý den. Crawlují na základě limitů a signálů, jako je rychlost webu, stav serveru a jak často se váš obsah mění.
Pokud je váš web pomalý nebo vrací chyby, mohou crawlery navštívit méně stránek při jednom běhu. To může zpozdit indexování nových příspěvků a aktualizovaných stránek. Robots.txt pomáhá tím, že snižuje zbytečné procházení, takže boti tráví více času na stránkách, na které je skutečně chcete zaměřit.
Pro nejlepší výsledky použijte robots.txt s mapou stránek:
- Robots.txt vede boty, co mají crawlovat nebo přeskakovat
- Sitemap uvádí stránky, které chcete procházet a indexovat
Robots.txt pravidla, která byste měli znát
robots.txt soubor používá několik jednoduchých direktiv. Jsou snadno čitelné, ale musíte je psát pečlivě.
- User-agent
- Množiny, na které boty se pravidlo vztahuje
- Zakázáno
- Bloky hledající složku nebo cestu
- Povolit
- Otevře konkrétní cestu uvnitř blokované složky
- Crawl-delay
- Některé boty pomalejší procházení požadavků (ne všichni boti to dodržují)
Malá chyba může zablokovat důležité stránky, včetně klíčových kategorií nebo hlavních vstupních stránek. Proto je používání generátoru bezpečnější než psát vše ručně.
Proč WordPress stránky často potřebují Robots.txt
WordPress může vytvářet mnoho URL, které SEO nepomáhají, například interní vyhledávací stránky, některé archivní stránky a URL založené na parametrech. Blokování oblastí s nízkou hodnotou pomáhá crawlerům trávit více času na vašich hlavních stránkách, blogových příspěvcích a stránkách produktů či služeb.
I na menších stránkách je čistý robots.txt soubor chytrým řešením. Udržuje pravidla pro procházení organizovaná, jak web roste.
Robots.txt a rozdíl mezi mapami stránek
Mapa stránek pomáhá vyhledávačům najít stránky, které chcete prohledat. Robots.txt ovládá, kam mohou boti jít.
- Sitemap zlepšuje objevování
- Robots.txt řídí procházející přístup
Většina webů těží z používání obojího.
Jak vytvořit Robots.txt pomocí tohoto generátoru
Robots.txt je jednoduché, ale není to shovívavé. Jedno špatné pravidlo může zablokovat klíčové stránky. Tento generátor vám pomůže bezpečně vytvořit soubor.
Nastavte výchozí přístup
Zvolte, zda všichni boti mohou procházet váš web ve výchozím nastavení.
Přidejte URL své mapy stránek
Zahrňte svou sitemapu, aby crawleri mohli rychleji najít vaše důležité stránky.
Pečlivě přidávejte zakázané cesty
Blokujte jen to, co opravdu nechcete, aby bylo prolezeno. Vždy začínejte předním lometem, například:
/admin/ nebo /hledat/
Recenze před vydáním
Dvakrát si zkontrolujte, zda jste nezablokovali domovskou stránku, blog, kategorie nebo hlavní stránky služeb.
Související SEO nástroje, které dobře fungují s Robots.txt
Robots.txt je jednou z částí technického SEO. Tyto nástroje podporují stejný cíl a pomáhají vám potvrdit, že vše funguje správně:
- Sitemap Checker: Potvrzuje, že vaše sitemap je platná a snadno čitelná pro boty.
- Google Index Checker: Ověřuje, zda lze stránku indexovat, a označuje běžné blokátory jako noindex.
- Zkontrolujte HTTP stavový kód: Najde chyby 200, 301, 404 a serveru, které mohou zpomalit procházení.
- Bezplatný kontrolor přesměrování: Potvrzuje, že přesměrování jsou čistá a nejsou zaseknutá v řetězcích nebo smyčkách.
- Analýza meta tagů: Recenze názvů, popisů a metatagů robotů pro SEO chyby.
Dokumentace k API bude brzy k dispozici
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.