W trakcie rozwoju

Generator pliku robots.txt |

Reklama

Dyrektywy ogólne

Skonfiguruj domyślne zachowanie dla wszystkich robotów indeksujących przed zastąpieniem warstw.

Ustaw globalną regułę zezwalającą lub blokującą dla User-agent: *.

Ogranicz działanie robotów, jeśli Twój serwer potrzebuje przestrzeni.

Opcjonalna dyrektywa hosta dla domen lustrzanych.

Jedna ścieżka na wiersz. Obsługuje symbole wieloznaczne i ukośniki końcowe.

Upewnij się, że określone foldery pozostaną dostępne do przeszukiwania, nawet gdy szersze ścieżki będą zablokowane.

Podaj jeden adres URL mapy witryny w każdym wierszu. Dodaj dodatkowe indeksy mapy witryny, jeśli je posiadasz.

Zwykłe gąsienice

Przełącz roboty, które chcesz całkowicie zablokować. Pozostaw im możliwość korzystania z domyślnej reguły powyżej.

Reguły niestandardowe

Dodaj agentów użytkownika ze dostosowanymi dyrektywami zezwalającymi lub blokującymi, opóźnieniami indeksowania i wskazówkami dotyczącymi mapy witryny.

Skopiuj wygenerowany powyżej plik i prześlij go do katalogu głównego swojej domeny jako robots.txt.

Generuj pliki robots.txt, aby kontrolować zachowanie indeksowania wyszukiwarek.
Reklama

Spis treści

Robots.txt to mały plik tekstowy, który prowadzi boty wyszukiwania na Twojej stronie. Informuje pełzacze, do których obszarów mogą się dostać i których ścieżek powinni unikać. Dzięki temu indeksowanie koncentruje się na stronach o znaczeniu i zmniejsza straty wizyt na niskich adresach URL.

Użyj robots.txt do blokowania takich obszarów jak strony administratora, foldery stażingowe, testowe adresy URL, strony filtrujące i duplikujące ścieżki. Gdy Twoje zasady są jasne, wyszukiwarki spędzają więcej czasu na ważnych stronach. To może pomóc szybciej odkrywać nowe treści i utrzymać przejrzystość i przewidywalność.

Robots.txt jest częścią standardu wykluczenia robotów. Umieszczasz ją na:

yourdomain.com/robots.txt

Wyszukiwarki często sprawdzają ten plik wcześniej, ponieważ daje im jasne wskazówki do przeszukiwania. Jeśli Twoja strona jest mała, może być indeksowana bez pliku robots.txt. Jednak na większych stronach brak wskazówek może prowadzić do zmarnowanego indeksowania i wolniejszego odkrywania kluczowych stron.

Jedna ważna kwestia:

  • Robots.txt steruje pełzaniem
  • Nie gwarantuje indeksowania

Jeśli chcesz potwierdzić, że dana strona może pojawić się w wynikach wyszukiwania, użyj sprawdzenia indeksowalności. To pomaga wyłapać sygnały takie jak noindex, zablokowane zasoby czy inne kwestie, których robots.txt nie uwzględnia.

Wyszukiwarki nie indeksują każdej strony codziennie. Indeksują na podstawie limitów i sygnałów, takich jak szybkość strony, stan serwera oraz częstotliwość zmian Twoich treści.

Jeśli Twoja strona jest wolna lub zwraca błędy, crawlery mogą odwiedzać mniej stron na jedno uruchomienie. To może opóźnić indeksowanie nowych postów i zaktualizowanych stron. Robots.txt pomaga zmniejszyć zmarnowane przeszukiwania, dzięki czemu boty spędzają więcej czasu na stronach, na których faktycznie chcesz, żeby się skupiły.

Dla najlepszych rezultatów użyj robots.txt z mapą strony:

  • Robots.txt prowadzi boty, co przesuwać lub pomijać
  • Sitemap wymienia strony, które chcesz przeindeksować i indeksować

Plik robots.txt używa kilku prostych dyrektyw. Są łatwe do czytania, ale trzeba je pisać ostrożnie.

  • User-agent
  • Zestawy, do których botów obowiązuje reguła
  • Zakaz
  • Bloki pełzające w poszukiwaniu folderu lub ścieżki
  • Pozwól
  • Otwiera konkretną ścieżkę wewnątrz zablokowanego folderu
  • Opóźnienie z indeksowaniem
  • Niektóre boty wolniej indeksują żądania (nie wszystkie boty to stosują)

Mały błąd może zablokować ważne strony, w tym kluczowe kategorie lub główne strony docelowe. Dlatego korzystanie z generatora jest bezpieczniejsze niż ręczne zapisywanie wszystkiego.

WordPress może tworzyć wiele adresów URL, które nie pomagają SEO, takich jak wewnętrzne strony wyszukiwania, niektóre strony archiwalne czy URL-y oparte na parametrach. Blokowanie obszarów o niskiej wartości pomaga crawlerom spędzać więcej czasu na głównych stronach, wpisach na blogu oraz stronach produktów lub usług.

Nawet na mniejszych stronach czysty plik robots.txt to rozsądne rozwiązanie. Utrzymuje zasady indeksowania uporządkowane wraz z wzrostem strony.

Mapa strony pomaga wyszukiwarkom znaleźć strony, które chcesz przeindeksować. Robots.txt kontroluje, gdzie boty mogą się poruszać.

  • Sitemap poprawia odkrywanie
  • Robots.txt kontroluje dostęp crawling

Większość stron korzysta z obu tych metod.

Robots.txt jest proste, ale nie jest wybaczające. Jedna błędna zasada może zablokować kluczowe strony. Ten generator pomaga bezpiecznie zbudować plik.

Ustaw domyślny dostęp

Wybierz, czy wszystkie boty mogą domyślnie indeksować Twoją stronę.

Dodaj URL swojej mapy witryny

Dołącz mapę strony, aby crawlery mogły szybciej znaleźć ważne strony.

Ostrożnie dodawaj zakazane ścieżki

Blokuj tylko to, czego naprawdę nie chcesz, żeby się na nim poślizgnęło. Zawsze zaczynaj od ukośnika do przodu, na przykład:

/admin/ lub /search/

Recenzja przed publikacją

Sprawdź dokładnie, czy nie zablokowałeś swojej strony głównej, bloga, stron kategorii ani głównych stron usług.

Robots.txt jest jednym z elementów technicznego SEO. Te narzędzia wspierają ten sam cel i pomagają potwierdzić, że wszystko działa poprawnie:

Dokumentacja API wkrótce

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.