U razvoju

Generator robots.txt |

Oglas

Opće smjernice

Konfigurirajte zadano ponašanje za sve pretraživače prije nadjačavanja slojeva.

Postavite globalno pravilo dopuštanja ili blokiranja za korisničkog agenta: *.

Smanjite broj indeksera ako vašem poslužitelju treba prostora za disanje.

Neobavezna direktiva hosta za zrcalne domene.

Jedan put po retku. Podržava zamjenske znakove i kose crte na kraju.

Osigurajte da određene mape ostanu moguće za indeksiranje čak i kada su šire putanje blokirane.

Navedite jedan URL sitemapa po retku. Dodajte dodatne indekse sitemapa ako ih imate.

Uobičajeni indeksi

Uključite/isključite pretraživače koje želite u potpunosti blokirati. Ostavite im dopuštenje da se oslanjaju na gore navedeno zadano pravilo.

Prilagođena pravila

Dodajte korisničke agente s prilagođenim direktivama za dopuštanje ili blokiranje, kašnjenjima indeksiranja i savjetima za mapu web-mjesta.

Kopirajte generiranu datoteku iznad i prenesite je u korijensku mapu svoje domene kao robots.txt.

Generirajte robots.txt datoteke za kontrolu ponašanja tražilice pri indeksiranju.
Oglas

Sadržaj

Robots.txt je mala tekstualna datoteka koja usmjerava pretraživačke botove na vašoj stranici. On govori crawlerima koja područja mogu pristupiti i koje putove trebaju izbjegavati. To održava indeksiranje usmjerenim na stranice koje su važne i smanjuje gubitak posjeta na URL-ovima niske vrijednosti.

Koristite robots.txt za blokiranje područja poput administratorskih stranica, staging mapa, testnih URL-ova, stranica za filtriranje i dupliciranja putanja. Kada su vaša pravila jasna, tražilice provode više vremena na vašim važnim stranicama. To može pomoći da se novi sadržaj brže otkrije i da ostane čist i predvidljiv.

Robots.txt je dio standarda za isključivanje robota. Smještate ga na:

yourdomain.com/robots.txt

Tražilice često rano provjeravaju ovu datoteku jer im daje jasne upute za pretraživanje. Ako je vaša stranica mala, možda će se indeksirati i bez robots.txt datoteke. No na većim stranicama, nedostatak smjernica može dovesti do nepotrebnog pretraživanja i sporijeg otkrivanja ključnih stranica.

Jedna važna stvar:

  • Robots.txt kontrolira puzanje
  • Ne jamči indeksiranje

Ako želite potvrditi da se stranica može pojaviti u rezultatima pretraživanja, koristite provjeru indeksabilnosti. To vam pomaže uočiti signale poput noindexa, blokiranih resursa ili drugih problema koje robots.txt ne pokriva.

Tražilice ne pretražuju svaku stranicu svaki dan. Indeksiraju na temelju ograničenja i signala poput brzine stranice, zdravlja servera i koliko često se vaš sadržaj mijenja.

Ako je vaša stranica spora ili vraća pogreške, pretraživači mogu posjetiti manje stranica po prelasku. To može odgoditi indeksiranje novih objava i ažuriranih stranica. Robots.txt pomaže smanjenjem izgubljenih pretraživanja, pa botovi provode više vremena na stranicama na kojima zapravo želite da se fokusiraju.

Za najbolje rezultate, koristite robots.txt s kartom stranice:

  • Robots.txt vodi botove što da pretražuju ili preskaču
  • Sitemap prikazuje stranice koje želite indeksirati i indeksirati

robots.txt datoteka koristi nekoliko jednostavnih direktiva. Lako ih je pročitati, ali ih morate pažljivo pisati.

  • User-agent
  • Skupovi na koje botove se pravilo primjenjuje
  • Zabrana
  • Blokovi koji traže mapu ili putanju
  • Dopusti
  • Otvara određeni put unutar blokirane mape
  • Crawl-delay
  • Zahtjevi usporavaju indeksiranje kod nekih botova (ne slijede svi botovi)

Mala pogreška može blokirati važne stranice, uključujući ključne kategorije ili osnovne odredišne stranice. Zato je korištenje generatora sigurnije nego pisanje svega ručno.

WordPress može kreirati mnoge URL-ove koji ne pomažu SEO-u, poput internih stranica za pretraživanje, nekih arhivskih stranica i URL-ova temeljenih na parametrima. Blokiranje područja niske vrijednosti pomaže crawlerima da provedu više vremena na vašim glavnim stranicama, blogovima i stranicama proizvoda ili usluga.

Čak i na manjim stranicama, čista robots.txt datoteka je pametno rješenje. Održava pravila pretraživanja organiziranima kako stranica raste.

Sitemap pomaže tražilicama da otkriju stranice koje želite da se indeksiraju. Robots.txt kontrolira kamo botovi mogu ići.

  • Sitemap poboljšava otkrivanje
  • Robots.txt kontrolira crawling pristup

Većina web stranica ima koristi od korištenja oba.

Robots.txt je jednostavno, ali nije popustljivo. Jedno pogrešno pravilo može blokirati ključne stranice. Ovaj generator vam pomaže da sigurno izgradite datoteku.

Postavi zadani pristup

Odaberite mogu li svi botovi indeksirati vašu stranicu po defaultu.

Dodajte URL svoje karte stranice

Uključite svoju kartu stranice kako bi crawleri brže pronašli vaše važne stranice.

Pažljivo dodajte zabranjene putove

Blokirajte samo ono što zaista ne želite da se uvlači. Uvijek započnite s prednjom kosom crtom, poput:

/admin/ ili /pretraži/

Recenzija prije objave

Dvaput provjerite jeste li blokirali početnu stranicu, blog, stranice kategorija ili glavne servisne stranice.

Robots.txt je jedan dio tehničkog SEO-a. Ovi alati podržavaju isti cilj i pomažu vam potvrditi da sve radi ispravno:

API dokumentacija uskoro

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.