Generator robots.txt |
Opće smjernice
Konfigurirajte zadano ponašanje za sve pretraživače prije nadjačavanja slojeva.
Postavite globalno pravilo dopuštanja ili blokiranja za korisničkog agenta: *.
Smanjite broj indeksera ako vašem poslužitelju treba prostora za disanje.
Neobavezna direktiva hosta za zrcalne domene.
Jedan put po retku. Podržava zamjenske znakove i kose crte na kraju.
Osigurajte da određene mape ostanu moguće za indeksiranje čak i kada su šire putanje blokirane.
Navedite jedan URL sitemapa po retku. Dodajte dodatne indekse sitemapa ako ih imate.
Uobičajeni indeksi
Uključite/isključite pretraživače koje želite u potpunosti blokirati. Ostavite im dopuštenje da se oslanjaju na gore navedeno zadano pravilo.
Prilagođena pravila
Dodajte korisničke agente s prilagođenim direktivama za dopuštanje ili blokiranje, kašnjenjima indeksiranja i savjetima za mapu web-mjesta.
Još nema prilagođenih pravila. Pomoću gornjeg gumba možete ga stvoriti.
Točan ili zamjenski niz korisničkog agenta.
Kopirajte generiranu datoteku iznad i prenesite je u korijensku mapu svoje domene kao robots.txt.
Sadržaj
Robots.txt generator za bolje pretraživanje i indeksiranje
Robots.txt je mala tekstualna datoteka koja usmjerava pretraživačke botove na vašoj stranici. On govori crawlerima koja područja mogu pristupiti i koje putove trebaju izbjegavati. To održava indeksiranje usmjerenim na stranice koje su važne i smanjuje gubitak posjeta na URL-ovima niske vrijednosti.
Koristite robots.txt za blokiranje područja poput administratorskih stranica, staging mapa, testnih URL-ova, stranica za filtriranje i dupliciranja putanja. Kada su vaša pravila jasna, tražilice provode više vremena na vašim važnim stranicama. To može pomoći da se novi sadržaj brže otkrije i da ostane čist i predvidljiv.
Što Robots.txt znači u SEO-u
Robots.txt je dio standarda za isključivanje robota. Smještate ga na:
yourdomain.com/robots.txt
Tražilice često rano provjeravaju ovu datoteku jer im daje jasne upute za pretraživanje. Ako je vaša stranica mala, možda će se indeksirati i bez robots.txt datoteke. No na većim stranicama, nedostatak smjernica može dovesti do nepotrebnog pretraživanja i sporijeg otkrivanja ključnih stranica.
Jedna važna stvar:
- Robots.txt kontrolira puzanje
- Ne jamči indeksiranje
Ako želite potvrditi da se stranica može pojaviti u rezultatima pretraživanja, koristite provjeru indeksabilnosti. To vam pomaže uočiti signale poput noindexa, blokiranih resursa ili drugih problema koje robots.txt ne pokriva.
Zašto Robots.txt pomaže s budžetom za crawl
Tražilice ne pretražuju svaku stranicu svaki dan. Indeksiraju na temelju ograničenja i signala poput brzine stranice, zdravlja servera i koliko često se vaš sadržaj mijenja.
Ako je vaša stranica spora ili vraća pogreške, pretraživači mogu posjetiti manje stranica po prelasku. To može odgoditi indeksiranje novih objava i ažuriranih stranica. Robots.txt pomaže smanjenjem izgubljenih pretraživanja, pa botovi provode više vremena na stranicama na kojima zapravo želite da se fokusiraju.
Za najbolje rezultate, koristite robots.txt s kartom stranice:
- Robots.txt vodi botove što da pretražuju ili preskaču
- Sitemap prikazuje stranice koje želite indeksirati i indeksirati
Robots.txt pravila koja biste trebali znati
robots.txt datoteka koristi nekoliko jednostavnih direktiva. Lako ih je pročitati, ali ih morate pažljivo pisati.
- User-agent
- Skupovi na koje botove se pravilo primjenjuje
- Zabrana
- Blokovi koji traže mapu ili putanju
- Dopusti
- Otvara određeni put unutar blokirane mape
- Crawl-delay
- Zahtjevi usporavaju indeksiranje kod nekih botova (ne slijede svi botovi)
Mala pogreška može blokirati važne stranice, uključujući ključne kategorije ili osnovne odredišne stranice. Zato je korištenje generatora sigurnije nego pisanje svega ručno.
Zašto WordPress stranice često trebaju Robots.txt
WordPress može kreirati mnoge URL-ove koji ne pomažu SEO-u, poput internih stranica za pretraživanje, nekih arhivskih stranica i URL-ova temeljenih na parametrima. Blokiranje područja niske vrijednosti pomaže crawlerima da provedu više vremena na vašim glavnim stranicama, blogovima i stranicama proizvoda ili usluga.
Čak i na manjim stranicama, čista robots.txt datoteka je pametno rješenje. Održava pravila pretraživanja organiziranima kako stranica raste.
Robots.txt i razlike u kartama stranica
Sitemap pomaže tražilicama da otkriju stranice koje želite da se indeksiraju. Robots.txt kontrolira kamo botovi mogu ići.
- Sitemap poboljšava otkrivanje
- Robots.txt kontrolira crawling pristup
Većina web stranica ima koristi od korištenja oba.
Kako stvoriti Robots.txt koristeći ovaj generator
Robots.txt je jednostavno, ali nije popustljivo. Jedno pogrešno pravilo može blokirati ključne stranice. Ovaj generator vam pomaže da sigurno izgradite datoteku.
Postavi zadani pristup
Odaberite mogu li svi botovi indeksirati vašu stranicu po defaultu.
Dodajte URL svoje karte stranice
Uključite svoju kartu stranice kako bi crawleri brže pronašli vaše važne stranice.
Pažljivo dodajte zabranjene putove
Blokirajte samo ono što zaista ne želite da se uvlači. Uvijek započnite s prednjom kosom crtom, poput:
/admin/ ili /pretraži/
Recenzija prije objave
Dvaput provjerite jeste li blokirali početnu stranicu, blog, stranice kategorija ili glavne servisne stranice.
Povezani SEO alati koji dobro rade s Robots.txt
Robots.txt je jedan dio tehničkog SEO-a. Ovi alati podržavaju isti cilj i pomažu vam potvrditi da sve radi ispravno:
- Sitemap Checker: Potvrđuje da je vaš sitemap valjan i jednostavan za botove za čitanje.
- Google Index Checker: Provjerava može li se stranica indeksirati i označava uobičajene blokatore poput noindexa.
- Provjerite HTTP statusni kod: Pronalazi 200, 301, 404 i serverske pogreške koje mogu usporiti indeksiranje.
- Besplatni provjera preusmjeravanja: Potvrđuje da su preusmjeravanja čista i da nisu zaglavljena u lancima ili petljama.
- Analiza meta oznaka: Recenzije naslova, opisa i robotskih meta oznaka za SEO pogreške.
API dokumentacija uskoro
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.