У развоју

Роботс.ткт Генератор |

Оглас

Опште директиве

Конфигуришите подразумевано понашање за све претраживаче пре него што надјачате слојевите функције.

Поставите глобално правило дозвољавања или блокирања за кориснички агент: *.

Успорите претраживаче ако вашем серверу треба простора за дисање.

Опционална директива хоста за огледалне домене.

Једна путања по линији. Подржава џокере и завршне косе црте.

Осигурајте да одређене фасцикле остану доступне за претраживање чак и када су шире путање блокиране.

Наведите по једну URL адресу мапе сајта у сваком реду. Додајте додатне индексе мапе сајта ако их имате.

Уобичајени пузачи

Укључите/искључите претраживаче које желите потпуно да блокирате. Дозволите им да се ослањају на подразумевано правило изнад.

Прилагођена правила

Додајте корисничке агенте са прилагођеним директивама за дозвољавање или блокирање, кашњењима претраживања и саветима за мапу сајта.

Копирајте генерисану датотеку изнад и отпремите је у корен вашег домена као robots.txt.

Генеришите датотеке роботс.ткт да бисте контролисали понашање претраживања претраживача.
Оглас

Садржај

Robots.txt je mala tekstualna datoteka koja vodi botove za pretragu na vašoj veb lokaciji. To govori popisivačima koje oblasti mogu da pristupe i koje puteve treba izbegavati. Ovo nastavlja da se fokusira na stranice koje su važne i smanjuje izgubljene posete URL-ovima male vrednosti.

Koristite robots.txt za blokiranje područja kao što su administratorske stranice, folderi za postavljanje, testni URL-ovi, stranice filtera i duplirane staze. Kada su vaša pravila jasna, pretraživači provode više vremena na važnim stranicama. To može pomoći da se novi sadržaj otkrije brže i nastavi puzati čisto i predvidljivo.

Robots.txt je deo standarda za isključivanje robota. Postavite ga na:

yourdomain.com/robots.txt

Pretraživači često proveravaju ovu datoteku ranije jer im daje jasne uputstva za puzanje. Ako je vaša veb lokacija mala, ona se i dalje može indeksirati bez robots.txt datoteke. Ali na većim sajtovima, nedostajuće smernice mogu dovesti do izgubljenog puzanja i sporijeg otkrivanja ključnih stranica.

Jedna važna tačka:

  • Robots.txt kontroliše puzanje
  • To ne garantuje indeksiranje

Ako želite da potvrdite da stranica može da se pojavi u rezultatima pretrage, koristite proveru indeksabilnosti. To vam pomaže da uočite signale kao što su noindex, blokirani resursi ili druga pitanja koja robots.txt ne pokriva.

Pretraživači ne puzaju svaku stranicu svaki dan. Oni puzaju na osnovu ograničenja i signala kao što su brzina sajta, zdravlje servera i koliko često se vaš sadržaj menja.

Ako je vaš sajt spor ili vraća greške, popisivači mogu posetiti manje stranica po pokretanju. To može odložiti indeksiranje novih postova i ažuriranih stranica. Robots.txt pomaže smanjenjem izgubljenih puzanja, tako da botovi provode više vremena na stranicama na koje zapravo želite da se fokusiraju.

Za najbolje rezultate, koristite robots.txt sa mapom sajta:

  • Robots.txt vodi botove o tome šta da puzi ili preskoči
  • Mapa sajta navodi stranice koje želite da se popisuju i indeksiraju

robots.txt fajl koristi nekoliko jednostavnih direktiva. Oni su laki za čitanje, ali morate ih pažljivo napisati.

  • Korisnički agent
  • Postavlja na koji bot se pravilo odnosi
  • Zabrana
  • Blokovi puzanja za fasciklu ili putanju
  • Dozvoli
  • Otvara određenu putanju unutar blokiranog foldera
  • Puzanje-kašnjenje
  • Zahtevi sporije puzanje za neke botove (ne prate ga svi botovi)

Mala greška može blokirati važne stranice, uključujući ključne kategorije ili osnovne odredišne stranice. Zato je korišćenje generatora sigurnije od pisanja svega ručno.

VordPress može kreirati mnoge URL-ove koji ne pomažu SEO-u, kao što su interne stranice za pretragu, neke arhivske stranice i URL-ovi zasnovani na parametrima. Blokiranje područja niske vrednosti pomaže popisivačima da provode više vremena na vašim glavnim stranicama, postovima u blogovima i stranicama proizvoda ili usluga.

Čak i na manjim lokacijama, čista datoteka robots.txt je pametno podešavanje. Održava vaša pravila puzanja organizovana kako sajt raste.

Mapa sajta pomaže pretraživačima da otkriju stranice koje želite da popisujete. Robots.txt kontroliše gde botovi mogu da idu.

  • Mapa sajta poboljšava otkriće
  • Robots.txt kontroliše pristup popisivanju

Većina sajtova ima koristi od korišćenja oba.

Robots.txt je jednostavan, ali ne oprašta. Jedno pogrešno pravilo može blokirati ključne stranice. Ovaj generator vam pomaže da bezbedno izgradite datoteku.

Podesite podrazumevani pristup

Izaberite da li svi botovi mogu da indeksiraju vašu veb lokaciju po defaultu.

Dodajte URL adresu mape sajta

Uključite mapu sajta kako bi pretraživači mogli brže pronaći vaše važne stranice.

Pažljivo dodajte nedozvoljene putanje

Blokirajte samo ono što zaista ne želite puzati. Uvek počnite sa kosom crtom, kao što su:

/admin/ ili /search/

Pregledajte pre objavljivanja

Dvaput proverite da li niste blokirali svoju početnu stranicu, blog, stranice kategorija ili glavne stranice usluga.

Robots.txt je jedan deo tehničkog SEO-a. Ovi alati podržavaju isti cilj i pomažu vam da potvrdite da sve radi ispravno:

  • Sitemap Checker: Potvrđuje da je vaš sitemap validan i jednostavan za čitanje botova.
  • Google Indek Checker: Proverava da li se stranica može indeksirati i označava uobičajene blokatore kao što je noindex.
  • Proverite HTTP statusni kod: Pronalazi KSNUMKS, KSNUMKS, KSNUMKS i greške servera koje mogu usporiti puzanje.
  • Free Redirect Checker: Potvrđuje preusmeravanja su čisti i ne zaglavljen u lancima ili petljama.
  • Analiza meta oznaka: Pregledi naslova, opisa i robota meta oznake za SEO greške.

API документација ускоро

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.