common.you_need_to_be_loggedin_to_add_tool_in_favorites
Generator pliku robots.txt |
Dyrektywy ogólne
Skonfiguruj domyślne zachowanie dla wszystkich robotów indeksujących przed zastąpieniem warstw.
Ustaw globalną regułę zezwalającą lub blokującą dla User-agent: *.
Ogranicz działanie robotów, jeśli Twój serwer potrzebuje przestrzeni.
Opcjonalna dyrektywa hosta dla domen lustrzanych.
Jedna ścieżka na wiersz. Obsługuje symbole wieloznaczne i ukośniki końcowe.
Upewnij się, że określone foldery pozostaną dostępne do przeszukiwania, nawet gdy szersze ścieżki będą zablokowane.
Podaj jeden adres URL mapy witryny w każdym wierszu. Dodaj dodatkowe indeksy mapy witryny, jeśli je posiadasz.
Zwykłe gąsienice
Przełącz roboty, które chcesz całkowicie zablokować. Pozostaw im możliwość korzystania z domyślnej reguły powyżej.
Reguły niestandardowe
Dodaj agentów użytkownika ze dostosowanymi dyrektywami zezwalającymi lub blokującymi, opóźnieniami indeksowania i wskazówkami dotyczącymi mapy witryny.
Nie ma jeszcze żadnych reguł niestandardowych. Użyj przycisku powyżej, aby je utworzyć.
Dokładny ciąg znaków lub symbol wieloznaczny dla agenta użytkownika.
Skopiuj wygenerowany powyżej plik i prześlij go do katalogu głównego swojej domeny jako robots.txt.
Generator pliku Robots.txt zapewniający lepsze przeszukiwanie i indeksowanie
Robots.txt to mały plik tekstowy, który kieruje robotami wyszukującymi w Twojej witrynie.
Użyj pliku robots.txt, aby zablokować obszary takie jak strony administracyjne, foldery tymczasowe, testowe adresy URL, strony filtrujące i zduplikowane ścieżki.
Co oznacza plik Robots.txt w SEO
Plik robots.txt jest częścią standardu wykluczania robotów.
twojadomena.com/robots.txt
Wyszukiwarki często sprawdzają ten plik wcześniej, ponieważ daje im jasne wskazówki dotyczące indeksowania.
Jeden ważny punkt:
- Plik robots.txt kontroluje indeksowanie
- Nie gwarantuje indeksowania
Jeżeli chcesz mieć pewność, że dana strona pojawi się w wynikach wyszukiwania, skorzystaj ze sprawdzenia indeksowalności.
Dlaczego plik Robots.txt pomaga w utrzymaniu budżetu indeksowania
Wyszukiwarki nie przeszukują każdej strony codziennie.
Jeśli Twoja witryna działa wolno lub zwraca błędy, roboty indeksujące mogą odwiedzać mniej stron w trakcie jednego uruchomienia.
Aby uzyskać najlepsze wyniki, użyj pliku robots.txt z mapą witryny:
- Plik robots.txt zawiera wskazówki dla botów, co należy przeszukać, a co pominąć
- Mapa witryny zawiera listę stron, które chcesz przeszukać i zaindeksować
Zasady pliku Robots.txt, które powinieneś znać
Plik robots.txt wykorzystuje kilka prostych dyrektyw.
- Klient użytkownika
- Ustawia, którego bota dotyczy reguła
- Nie zezwalaj
- Blokuje indeksowanie folderu lub ścieżki
- Zezwalaj
- Otwiera określoną ścieżkę w zablokowanym folderze
- Opóźnienie indeksowania
- Żąda wolniejszego indeksowania dla niektórych botów (nie wszystkie boty to śledzą)
Mały błąd może zablokować ważne strony, w tym kluczowe kategorie lub główne strony docelowe.
Dlaczego witryny WordPress często potrzebują pliku Robots.txt
WordPress może tworzyć wiele adresów URL, które nie pomagają w SEO, takich jak wewnętrzne strony wyszukiwania, niektóre strony archiwum i adresy URL oparte na parametrach.
Nawet w mniejszych witrynach czysty plik robots.txt to sprytna konfiguracja.
Różnica w pliku robots.txt i mapie witryny
Mapa witryny pomaga wyszukiwarkom znaleźć strony, które chcesz przeszukać.
- Mapa witryny usprawnia odkrywanie
- Plik Robots.txt kontroluje dostęp do indeksowania
Większość stron internetowych korzysta z obu.
Jak utworzyć plik Robots.txt za pomocą tego generatora
Plik Robots.txt jest prosty, ale nie wybacza błędów.
Ustaw dostęp domyślny
Wybierz, czy wszystkie boty mogą domyślnie indeksować Twoją witrynę.
Dodaj adres URL mapy witryny
Dołącz mapę witryny, aby roboty mogły szybciej znaleźć Twoje ważne strony.
Ostrożnie dodawaj niedozwolone ścieżki
Blokuj tylko to, czego naprawdę nie chcesz indeksować.
/admin/ lub /search/
Sprawdź przed publikacją
Sprawdź dokładnie, czy nie zablokowałeś swojej strony głównej, bloga, stron kategorii lub głównych stron usług.
Powiązane narzędzia SEO, które dobrze współpracują z plikiem Robots.txt
Plik robots.txt to jedna z części technicznego SEO.
- Sprawdzanie mapy witryny: potwierdza, że mapa witryny jest prawidłowa i łatwa do odczytania dla botów.
- Google Index Checker: sprawdza, czy strona może zostać zaindeksowana i oznacza typowe elementy blokujące, takie jak noindex.
- Sprawdź kod stanu HTTP: znajduje błędy 200, 301, 404 i serwera, które mogą spowolnić indeksowanie.
- Bezpłatne narzędzie do sprawdzania przekierowań: sprawdza, czy przekierowania są prawidłowe i nie utknęły w łańcuchach ani pętlach.
- Analiza metatagów: sprawdza tytuły, opisy i metatagi robotów pod kątem błędów SEO.