W trakcie rozwoju

Generator pliku robots.txt |

Reklama

Dyrektywy ogólne

Skonfiguruj domyślne zachowanie dla wszystkich robotów indeksujących przed zastąpieniem warstw.

Ustaw globalną regułę zezwalającą lub blokującą dla User-agent: *.

Ogranicz działanie robotów, jeśli Twój serwer potrzebuje przestrzeni.

Opcjonalna dyrektywa hosta dla domen lustrzanych.

Jedna ścieżka na wiersz. Obsługuje symbole wieloznaczne i ukośniki końcowe.

Upewnij się, że określone foldery pozostaną dostępne do przeszukiwania, nawet gdy szersze ścieżki będą zablokowane.

Podaj jeden adres URL mapy witryny w każdym wierszu. Dodaj dodatkowe indeksy mapy witryny, jeśli je posiadasz.

Zwykłe gąsienice

Przełącz roboty, które chcesz całkowicie zablokować. Pozostaw im możliwość korzystania z domyślnej reguły powyżej.

Reguły niestandardowe

Dodaj agentów użytkownika ze dostosowanymi dyrektywami zezwalającymi lub blokującymi, opóźnieniami indeksowania i wskazówkami dotyczącymi mapy witryny.

Skopiuj wygenerowany powyżej plik i prześlij go do katalogu głównego swojej domeny jako robots.txt.

Generuj pliki robots.txt, aby kontrolować zachowanie indeksowania wyszukiwarek.
Table of Contents

Robots.txt to mały plik tekstowy, który kieruje robotami wyszukującymi w Twojej witrynie.

Użyj pliku robots.txt, aby zablokować obszary takie jak strony administracyjne, foldery tymczasowe, testowe adresy URL, strony filtrujące i zduplikowane ścieżki.

Plik robots.txt jest częścią standardu wykluczania robotów.

twojadomena.com/robots.txt

Wyszukiwarki często sprawdzają ten plik wcześniej, ponieważ daje im jasne wskazówki dotyczące indeksowania.

Jeden ważny punkt:

  • Plik robots.txt kontroluje indeksowanie
  • Nie gwarantuje indeksowania

Jeżeli chcesz mieć pewność, że dana strona pojawi się w wynikach wyszukiwania, skorzystaj ze sprawdzenia indeksowalności.

Wyszukiwarki nie przeszukują każdej strony codziennie.

Jeśli Twoja witryna działa wolno lub zwraca błędy, roboty indeksujące mogą odwiedzać mniej stron w trakcie jednego uruchomienia.

Aby uzyskać najlepsze wyniki, użyj pliku robots.txt z mapą witryny:

  • Plik robots.txt zawiera wskazówki dla botów, co należy przeszukać, a co pominąć
  • Mapa witryny zawiera listę stron, które chcesz przeszukać i zaindeksować

Plik robots.txt wykorzystuje kilka prostych dyrektyw.

  • Klient użytkownika
  • Ustawia, którego bota dotyczy reguła
  • Nie zezwalaj
  • Blokuje indeksowanie folderu lub ścieżki
  • Zezwalaj
  • Otwiera określoną ścieżkę w zablokowanym folderze
  • Opóźnienie indeksowania
  • Żąda wolniejszego indeksowania dla niektórych botów (nie wszystkie boty to śledzą)

Mały błąd może zablokować ważne strony, w tym kluczowe kategorie lub główne strony docelowe.

WordPress może tworzyć wiele adresów URL, które nie pomagają w SEO, takich jak wewnętrzne strony wyszukiwania, niektóre strony archiwum i adresy URL oparte na parametrach.

Nawet w mniejszych witrynach czysty plik robots.txt to sprytna konfiguracja.

Mapa witryny pomaga wyszukiwarkom znaleźć strony, które chcesz przeszukać.

  • Mapa witryny usprawnia odkrywanie
  • Plik Robots.txt kontroluje dostęp do indeksowania

Większość stron internetowych korzysta z obu.

Plik Robots.txt jest prosty, ale nie wybacza błędów.

Ustaw dostęp domyślny

Wybierz, czy wszystkie boty mogą domyślnie indeksować Twoją witrynę.

Dodaj adres URL mapy witryny

Dołącz mapę witryny, aby roboty mogły szybciej znaleźć Twoje ważne strony.

Ostrożnie dodawaj niedozwolone ścieżki

Blokuj tylko to, czego naprawdę nie chcesz indeksować.

/admin/ lub /search/

Sprawdź przed publikacją

Sprawdź dokładnie, czy nie zablokowałeś swojej strony głównej, bloga, stron kategorii lub głównych stron usług.

Plik robots.txt to jedna z części technicznego SEO.