common.you_need_to_be_loggedin_to_add_tool_in_favorites
Generátor Robots.txt |
Všeobecné smernice
Pred prepísaním vrstvenia nakonfigurujte predvolené správanie pre všetky prehľadávače.
Nastaviť globálne pravidlo povolenia alebo blokovania pre používateľského agenta: *.
Ak váš server potrebuje priestor na dýchanie, obmedzte prehľadávače.
Voliteľná hostiteľská direktíva pre zrkadlené domény.
Jedna cesta na riadok. Podporuje zástupné znaky a koncové lomítka.
Zabezpečte, aby konkrétne priečinky zostali prehľadávateľné, aj keď sú blokované širšie cesty.
Uveďte jednu URL adresu súboru sitemap na riadok. Pridajte ďalšie indexy súborov sitemap, ak ich máte.
Bežné prehľadávače
Prepnite prehľadávače, ktoré chcete úplne zablokovať. Nechajte ich, aby sa spoliehali na predvolené pravidlo uvedené vyššie.
Vlastné pravidlá
Pridajte používateľských agentov s prispôsobenými direktívami povoľovania alebo blokovania, oneskoreniami prehľadávania a radami pre mapu stránok.
Zatiaľ žiadne vlastné pravidlá. Vytvorte si vlastné pravidlá pomocou tlačidla vyššie.
Presný reťazec alebo zástupný znak user-agent.
Skopírujte vygenerovaný súbor vyššie a nahrajte ho do koreňového adresára vašej domény ako robots.txt.
Generátor súboru Robots.txt pre lepšie indexové prehľadávanie a indexovanie
Robots.txt je malý textový súbor, ktorý vedie vyhľadávacie roboty na vašej lokalite.
Použite súbor robots.txt na blokovanie oblastí, ako sú stránky správcu, prípravné priečinky, testovacie adresy URL, stránky filtrovania a duplicitné cesty.
Čo znamená Robots.txt v SEO
Robots.txt je súčasťou štandardu vylúčenia robotov.
vasadomena.com/robots.txt
Vyhľadávacie nástroje často kontrolujú tento súbor skoro, pretože im poskytuje jasné pokyny na prehľadávanie.
Jeden dôležitý bod:
- Robots.txt ovláda prehľadávanie
- Nezaručuje indexovanie
Ak chcete potvrdiť, že sa stránka môže zobraziť vo výsledkoch vyhľadávania, použite kontrolu indexovateľnosti.
Prečo Robots.txt pomáha s rozpočtom na indexové prehľadávanie
Vyhľadávače neprechádzajú každú stránku každý deň.
Ak je váš web pomalý alebo vracia chyby, indexové prehľadávače môžu navštíviť menej stránok na spustenie.
Najlepšie výsledky dosiahnete, ak použijete súbor robots.txt so súborom sitemap:
- Robots.txt vedie roboty k tomu, čo majú prehľadávať alebo preskočiť
- Súbor Sitemap uvádza stránky, ktoré chcete prehľadať a indexovať
Pravidlá súboru Robots.txt, ktoré by ste mali vedieť
Súbor robots.txt používa niekoľko jednoduchých príkazov.
- User-agent
- Nastaví, na ktorého robota sa pravidlo vzťahuje
- Zakázať
- Blokuje prehľadávanie priečinka alebo cesty
- Povoliť
- Otvorí konkrétnu cestu v zablokovanom priečinku
- Oneskorenie indexového prehľadávania
- Vyžaduje pomalšie indexové prehľadávanie pre niektoré roboty (nie všetky roboty ho sledujú)
Malá chyba môže zablokovať dôležité stránky vrátane kľúčových kategórií alebo základných vstupných stránok.
Prečo stránky WordPress často potrebujú súbor Robots.txt
WordPress dokáže vytvoriť mnoho adries URL, ktoré nepomáhajú SEO, ako sú stránky interného vyhľadávania, niektoré archívne stránky a adresy URL založené na parametroch.
Dokonca aj na menších stránkach je čistý súbor robots.txt šikovným nastavením.
Rozdiel medzi súbormi Robots.txt a Sitemap
Mapa stránok pomáha vyhľadávacím nástrojom objaviť stránky, ktoré chcete indexovo prehľadávať.
- Sitemap zlepšuje objavovanie
- Robots.txt riadi prístup k indexovému prehľadávaniu
Väčšina webových stránok ťaží z používania oboch.
Ako vytvoriť Robots.txt pomocou tohto generátora
Robots.txt je jednoduchý, ale nie je zhovievavý.
Nastaviť predvolený prístup
Vyberte, či môžu vaše stránky predvolene indexovo prehľadávať všetky roboty.
Pridajte adresu URL súboru sitemap
Zahrňte svoju mapu webu, aby indexové prehľadávače rýchlejšie našli vaše dôležité stránky.
Povolené cesty pridávajte opatrne
Zablokujte iba to, čo skutočne nechcete, aby sa prehľadávalo.
/admin/ alebo /search/
Pred zverejnením skontrolujte
Ešte raz skontrolujte, či ste nezablokovali svoju domovskú stránku, blog, stránky kategórií alebo stránky hlavnej služby.
Súvisiace nástroje SEO, ktoré dobre fungujú s súborom Robots.txt
Robots.txt je jedna časť technického SEO.
- Kontrola súboru Sitemap: Potvrdzuje, že váš súbor Sitemap je platný a ľahko čitateľný pre roboty.
- Google Index Checker: Overuje, či je možné stránku indexovať, a označí bežné blokátory, ako je noindex.
- Skontrolovať stavový kód HTTP: Nájde chyby 200, 301, 404 a servera, ktoré môžu spomaliť indexové prehľadávanie.
- Bezplatná kontrola presmerovania: Potvrdzuje, že presmerovania sú čisté a nezaseknuté v reťaziach alebo slučkách.
- Analýza metaznačiek: Kontroluje názvy, popisy a metaznačky robotov na chyby SEO.