Robots.txt Generator |
Direktivat e përgjithshme
Konfiguro sjelljen e parazgjedhur për të gjithë programuesit e kërkimit përpara mbivendosjes së shtresave.
Vendos një rregull global lejimi ose bllokimi për agjentin e përdoruesit: *.
Rrotulloni programet crawler nëse serveri juaj ka nevojë për hapësirë për të marrë frymë.
Direktivë opsionale e hostit për domenet e pasqyruara.
Një shteg për rresht. Mbështet wildcards dhe slash-et në fund.
Sigurohuni që dosje specifike të mbeten të skanueshme edhe kur shtigje më të gjera janë të bllokuara.
Jepni një URL të hartës së faqes për rresht. Shtoni indekse shtesë të hartës së faqes nëse i keni.
Zvarritës të zakonshëm
Aktivizoni/çaktivizoni plotësisht programet e kërkimit që dëshironi të bllokoni. Lërini të mbështeten në rregullin parazgjedhur më sipër.
Rregulla të personalizuara
Shtoni agjentë përdoruesi me direktiva të personalizuara për lejim ose bllokim, vonesa në zvarritje dhe këshilla për hartën e faqes.
Ende nuk ka rregulla të personalizuara. Përdor butonin më sipër për të krijuar një të tillë.
Varg i saktë ose me shenjë dalluese të agjentit të përdoruesit.
Kopjoni skedarin e gjeneruar më sipër dhe ngarkojeni atë në rrënjën e domenit tuaj si robots.txt.
Tabela e përmbajtjes
Robots.txt Gjenerator për zvarritje dhe indeksim më të mirë
Robots.txt është një skedar i vogël teksti që udhëzon robotët e kërkimit në faqen tuaj. Ai u tregon zvarritësve se cilat zona mund të hyjnë dhe cilat shtigje duhet të shmangin. Kjo vazhdon zvarritjen e fokusuar në faqet që kanë rëndësi dhe redukton vizitat e humbura në URL me vlerë të ulët.
Përdorni robots.txt për të bllokuar zona si faqet e administratorit, dosjet e vendosjes, URL-të e testimit, faqet e filtrit dhe shtigjet e kopjuara. Kur rregullat tuaja janë të qarta, motorët e kërkimit shpenzojnë më shumë kohë në faqet tuaja të rëndësishme. Kjo mund të ndihmojë që përmbajtja e re të zbulohet më shpejt dhe të vazhdojë të zvarritet e pastër dhe e parashikueshme.
Çfarë do të thotë Robots.txt në SEO
Robots.txt është pjesë e standardit të përjashtimit të robotëve. Ju e vendosni në:
yourdomain.com/robots.txt
Motorët e kërkimit shpesh e kontrollojnë këtë skedar herët sepse u jep atyre udhëzime të qarta zvarritjeje. Nëse faqja juaj është e vogël, ajo mund të indeksohet pa një skedar robots.txt. Por në faqet më të mëdha, udhëzimet e munguara mund të çojnë në zvarritje të humbura dhe zbulim më të ngadaltë të faqeve kryesore.
Një pikë e rëndësishme:
- Robots.txt kontrollon zvarritjen
- Nuk garanton indeksimin
Nëse dëshironi të konfirmoni se një faqe mund të shfaqet në rezultatet e kërkimit, përdorni një kontroll të indeksueshmërisë. Kjo ju ndihmon të dalloni sinjale si noindex, burime të bllokuara ose çështje të tjera që robots.txt nuk mbulon.
Pse Robots.txt ndihmon me buxhetin e zvarritjes
Motorët e kërkimit nuk zvarriten çdo faqe çdo ditë. Ato zvarriten bazuar në kufijtë dhe sinjalet si shpejtësia e faqes, shëndeti i serverit dhe sa shpesh ndryshon përmbajtja juaj.
Nëse faqja juaj është e ngadaltë ose kthen gabime, zvarritësit mund të vizitojnë më pak faqe për ekzekutim. Kjo mund të vonojë indeksimin për postimet e reja dhe faqet e përditësuara. Robots.txt ndihmon duke reduktuar zvarritjet e humbura, kështu që robotët kalojnë më shumë kohë në faqet në të cilat dëshironi të përqendrohen.
Për rezultate më të mira, përdorni robots.txt me një hartë faqeje:
- Robots.txt udhëzon robotët se çfarë të zvarriten ose kapërcejnë
- Harta e faqes liston faqet që dëshironi të zvarriten dhe indeksoni
Robots.txt rregullat që duhet të dini
Një skedar robots.txt përdor disa direktiva të thjeshta. Ato janë të lehta për t'u lexuar, por duhet t'i shkruani me kujdes.
- Agjent përdoruesi
- Përcakton se për cilin bot zbatohet rregulli
- Mos lejo
- Blloqet që zvarriten për një dosje ose shteg
- Lejo
- Hap një shteg specifik brenda një dosjeje të bllokuar
- Vonesa e zvarritjes
- Kërkon zvarritje më të ngadaltë për disa robotë (jo të gjithë robotët e ndjekin atë)
Një gabim i vogël mund të bllokojë faqet e rëndësishme, duke përfshirë kategoritë kryesore ose faqet kryesore të uljes. Kjo është arsyeja pse përdorimi i një gjeneratori është më i sigurt sesa shkrimi i gjithçkaje manualisht.
Pse faqet e WordPress shpesh kanë nevojë për Robots.txt
WordPress mund të krijojë shumë URL që nuk ndihmojnë SEO, të tilla si faqet e brendshme të kërkimit, disa faqe arkivore dhe URL të bazuara në parametra. Bllokimi i zonave me vlerë të ulët i ndihmon zvarritësit të kalojnë më shumë kohë në faqet tuaja kryesore, postimet në blog dhe faqet e produkteve ose shërbimeve.
Edhe në faqet më të vogla, një skedar robots.txt i pastër është një konfigurim i zgjuar. Ai i mban rregullat tuaja të zvarritjes të organizuara ndërsa faqja rritet.
Robots.txt dhe ndryshimi i hartës së faqes
Një hartë faqeje ndihmon motorët e kërkimit të zbulojnë faqet që dëshironi të zvarriten. Robots.txt kontrollon se ku mund të shkojnë robotët.
- Harta e faqes përmirëson zbulimin
- Robots.txt kontrollon aksesin zvarritës
Shumica e faqeve të internetit përfitojnë nga përdorimi i të dyjave.
Si të krijoni Robots.txt duke përdorur këtë gjenerator
Robots.txt është e thjeshtë, por nuk është falëse. Një rregull i gabuar mund të bllokojë faqet kryesore. Ky gjenerator ju ndihmon të ndërtoni skedarin në mënyrë të sigurt.
Vendosni aksesin e paracaktuar
Zgjidhni nëse të gjithë robotët mund të zvarriten faqen tuaj si parazgjedhje.
Shtoni URL-në tuaj të hartës së faqes
Përfshini hartën tuaj të faqes në mënyrë që zvarritësit të gjejnë faqet tuaja të rëndësishme më shpejt.
Shtoni shtigjet e palejuara me kujdes
Bllokoni vetëm atë që vërtet nuk dëshironi të zvarritet. Filloni gjithmonë me një prerje përpara, si:
/admin/ ose /kërko/
Rishikoni para publikimit
Kontrolloni dy herë që nuk keni bllokuar faqen tuaj kryesore, blogun, faqet e kategorive ose faqet kryesore të shërbimit.
Mjetet e ngjashme SEO që funksionojnë mirë me Robots.txt
Robots.txt është një pjesë e SEO teknike. Këto mjete mbështesin të njëjtin qëllim dhe ju ndihmojnë të konfirmoni se gjithçka po funksionon siç duhet:
- Kontrolluesi i hartës së faqes: Konfirmon se harta juaj e faqes është e vlefshme dhe e lehtë për t'u lexuar nga robotët.
- Google Index Checker: Verifikon nëse një faqe mund të indeksohet dhe shënon bllokuesit e zakonshëm si noindex.
- Kontrolloni kodin e statusit HTTP: Gjen gabimet 200, 301, 404 dhe serverit që mund të ngadalësojnë zvarritjen.
- Kontrolluesi i ridrejtimit falas: Konfirmon se ridrejtimet janë të pastra dhe nuk janë të mbërthyera në zinxhirë ose sythe.
- Analiza e Meta Tags: Shqyrton titujt, përshkrimet dhe meta etiketat e robotëve për gabimet e SEO.
Dokumentacioni i API-t së shpejti
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.
Mjete të Ngjashme
- Mjeti i Kërkimit të Temave
- Modeli i kontaktit me email
- Llogaritësi i CPC me fjalë kyçe
- Kontrolluesi i etiketave meta
- Gjeneruesi i lidhjeve të pasme
- Optimizuesi i etiketës së titullit
- Kontrolluesi i përgjigjes së serverit
- Kontrolluesi i veçorive SERP
- Refuzo gjeneratorin e skedarëve
- Analizuesi i shpejtësisë së faqes