common.you_need_to_be_loggedin_to_add_tool_in_favorites
Роботс.ткт Генератор |
Опште директиве
Конфигуришите подразумевано понашање за све претраживаче пре него што надјачате слојевите функције.
Поставите глобално правило дозвољавања или блокирања за кориснички агент: *.
Успорите претраживаче ако вашем серверу треба простора за дисање.
Опционална директива хоста за огледалне домене.
Једна путања по линији. Подржава џокере и завршне косе црте.
Осигурајте да одређене фасцикле остану доступне за претраживање чак и када су шире путање блокиране.
Наведите по једну URL адресу мапе сајта у сваком реду. Додајте додатне индексе мапе сајта ако их имате.
Уобичајени пузачи
Укључите/искључите претраживаче које желите потпуно да блокирате. Дозволите им да се ослањају на подразумевано правило изнад.
Прилагођена правила
Додајте корисничке агенте са прилагођеним директивама за дозвољавање или блокирање, кашњењима претраживања и саветима за мапу сајта.
Још увек нема прилагођених правила. Користите дугме изнад да бисте га креирали.
Тачан или џокерски стринг корисничког агента.
Копирајте генерисану датотеку изнад и отпремите је у корен вашег домена као robots.txt.
Садржај
Robots.txt generator za bolje puzanje i indeksiranje
Robots.txt je mala tekstualna datoteka koja vodi botove za pretragu na vašoj veb lokaciji. To govori popisivačima koje oblasti mogu da pristupe i koje puteve treba izbegavati. Ovo nastavlja da se fokusira na stranice koje su važne i smanjuje izgubljene posete URL-ovima male vrednosti.
Koristite robots.txt za blokiranje područja kao što su administratorske stranice, folderi za postavljanje, testni URL-ovi, stranice filtera i duplirane staze. Kada su vaša pravila jasna, pretraživači provode više vremena na važnim stranicama. To može pomoći da se novi sadržaj otkrije brže i nastavi puzati čisto i predvidljivo.
Šta Robots.txt znači u SEO-u
Robots.txt je deo standarda za isključivanje robota. Postavite ga na:
yourdomain.com/robots.txt
Pretraživači često proveravaju ovu datoteku ranije jer im daje jasne uputstva za puzanje. Ako je vaša veb lokacija mala, ona se i dalje može indeksirati bez robots.txt datoteke. Ali na većim sajtovima, nedostajuće smernice mogu dovesti do izgubljenog puzanja i sporijeg otkrivanja ključnih stranica.
Jedna važna tačka:
- Robots.txt kontroliše puzanje
- To ne garantuje indeksiranje
Ako želite da potvrdite da stranica može da se pojavi u rezultatima pretrage, koristite proveru indeksabilnosti. To vam pomaže da uočite signale kao što su noindex, blokirani resursi ili druga pitanja koja robots.txt ne pokriva.
Zašto Robots.txt pomaže u budžetu za popisivanje
Pretraživači ne puzaju svaku stranicu svaki dan. Oni puzaju na osnovu ograničenja i signala kao što su brzina sajta, zdravlje servera i koliko često se vaš sadržaj menja.
Ako je vaš sajt spor ili vraća greške, popisivači mogu posetiti manje stranica po pokretanju. To može odložiti indeksiranje novih postova i ažuriranih stranica. Robots.txt pomaže smanjenjem izgubljenih puzanja, tako da botovi provode više vremena na stranicama na koje zapravo želite da se fokusiraju.
Za najbolje rezultate, koristite robots.txt sa mapom sajta:
- Robots.txt vodi botove o tome šta da puzi ili preskoči
- Mapa sajta navodi stranice koje želite da se popisuju i indeksiraju
Robots.txt pravila koja treba da znate
robots.txt fajl koristi nekoliko jednostavnih direktiva. Oni su laki za čitanje, ali morate ih pažljivo napisati.
- Korisnički agent
- Postavlja na koji bot se pravilo odnosi
- Zabrana
- Blokovi puzanja za fasciklu ili putanju
- Dozvoli
- Otvara određenu putanju unutar blokiranog foldera
- Puzanje-kašnjenje
- Zahtevi sporije puzanje za neke botove (ne prate ga svi botovi)
Mala greška može blokirati važne stranice, uključujući ključne kategorije ili osnovne odredišne stranice. Zato je korišćenje generatora sigurnije od pisanja svega ručno.
Zašto VordPress sajtovima često treba Robots.txt
VordPress može kreirati mnoge URL-ove koji ne pomažu SEO-u, kao što su interne stranice za pretragu, neke arhivske stranice i URL-ovi zasnovani na parametrima. Blokiranje područja niske vrednosti pomaže popisivačima da provode više vremena na vašim glavnim stranicama, postovima u blogovima i stranicama proizvoda ili usluga.
Čak i na manjim lokacijama, čista datoteka robots.txt je pametno podešavanje. Održava vaša pravila puzanja organizovana kako sajt raste.
Razlika između Robots.txt i mape sajta
Mapa sajta pomaže pretraživačima da otkriju stranice koje želite da popisujete. Robots.txt kontroliše gde botovi mogu da idu.
- Mapa sajta poboljšava otkriće
- Robots.txt kontroliše pristup popisivanju
Većina sajtova ima koristi od korišćenja oba.
Kako kreirati Robots.txt koristeći ovaj generator
Robots.txt je jednostavan, ali ne oprašta. Jedno pogrešno pravilo može blokirati ključne stranice. Ovaj generator vam pomaže da bezbedno izgradite datoteku.
Podesite podrazumevani pristup
Izaberite da li svi botovi mogu da indeksiraju vašu veb lokaciju po defaultu.
Dodajte URL adresu mape sajta
Uključite mapu sajta kako bi pretraživači mogli brže pronaći vaše važne stranice.
Pažljivo dodajte nedozvoljene putanje
Blokirajte samo ono što zaista ne želite puzati. Uvek počnite sa kosom crtom, kao što su:
/admin/ ili /search/
Pregledajte pre objavljivanja
Dvaput proverite da li niste blokirali svoju početnu stranicu, blog, stranice kategorija ili glavne stranice usluga.
Srodni SEO alati koji dobro funkcionišu sa Robots.txt
Robots.txt je jedan deo tehničkog SEO-a. Ovi alati podržavaju isti cilj i pomažu vam da potvrdite da sve radi ispravno:
- Sitemap Checker: Potvrđuje da je vaš sitemap validan i jednostavan za čitanje botova.
- Google Indek Checker: Proverava da li se stranica može indeksirati i označava uobičajene blokatore kao što je noindex.
- Proverite HTTP statusni kod: Pronalazi KSNUMKS, KSNUMKS, KSNUMKS i greške servera koje mogu usporiti puzanje.
- Free Redirect Checker: Potvrđuje preusmeravanja su čisti i ne zaglavljen u lancima ili petljama.
- Analiza meta oznaka: Pregledi naslova, opisa i robota meta oznake za SEO greške.
API документација ускоро
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.