Jenereta ya Robots.txt |
Maagizo ya jumla
Sanidi tabia chaguo-msingi kwa vitambaaji vyote kabla ya kubatilisha tabaka.
Weka sheria ya kimataifa ya kuruhusu au kuzuia kwa wakala wa Mtumiaji: *.
Vitambazaji vya koo ikiwa seva yako inahitaji chumba cha kupumulia.
Maagizo ya hiari ya seva pangishi kwa vikoa vilivyoakisiwa.
Njia moja kwa kila mstari.
Hakikisha folda mahususi zinasalia kutambaa hata wakati njia pana zimezuiwa.
Toa URL moja ya ramani ya tovuti kwa kila mstari.
Watambaji wa kawaida
Badilisha vitambaa unavyotaka kuzuia kabisa. Waache viruhusiwe kutegemea sheria chaguomsingi iliyo hapo juu.
Sheria maalum
Ongeza mawakala wa watumiaji wenye maagizo maalum ya kuruhusu au kuzuia, ucheleweshaji wa kutambaa, na vidokezo vya ramani ya tovuti.
Bado hakuna sheria maalum.
Mfuatano halisi au wakala wa mtumiaji wa kadi wildcard.
Nakili faili iliyotengenezwa hapo juu na uipakishe kwenye mzizi wa kikoa chako kama robots.txt.
Jedwali la Yaliyomo
Robots.txt jenereta kwa kutambaa bora na kuorodhesha
Robots.txt ni faili ndogo ya maandishi ambayo inaongoza roboti za utaftaji kwenye wavuti yako. Inawaambia watambazaji ni maeneo gani wanaweza kufikia na ni njia gani wanapaswa kuepuka. Hii inaendelea kutambaa ikilenga kurasa ambazo ni muhimu na inapunguza ziara zilizopotea kwenye URL za thamani ya chini.
Tumia robots.txt kuzuia maeneo kama kurasa za msimamizi, folda za kupanga, URL za majaribio, kurasa za vichungi na njia za nakala. Wakati sheria zako ziko wazi, injini za utaftaji hutumia muda mwingi kwenye kurasa zako muhimu. Hiyo inaweza kusaidia maudhui mapya kugunduliwa haraka na kuendelea kutambaa safi na kutabirika.
Inamaanisha nini Robots.txt katika SEO
Robots.txt ni sehemu ya kiwango cha kutengwa kwa roboti. Unaiweka katika:
yourdomain.com/robots.txt
Injini za utaftaji mara nyingi huangalia faili hii mapema kwa sababu inawapa maelekezo wazi ya kutambaa. Ikiwa tovuti yako ni ndogo, bado inaweza kuorodheshwa bila faili ya robots.txt. Lakini kwenye tovuti kubwa, kukosa mwongozo kunaweza kusababisha kupoteza kutambaa na ugunduzi wa polepole wa kurasa muhimu.
Jambo moja muhimu:
- Robots.txt inadhibiti kutambaa
- Haihakikishi kuorodhesha
Ikiwa unataka kuthibitisha kuwa ukurasa unaweza kuonekana katika matokeo ya utaftaji, tumia ukaguzi wa indexability. Hiyo hukusaidia kutambua ishara kama noindex, rasilimali zilizozuiwa, au maswala mengine ambayo robots.txt haishughulikii.
Kwa nini Robots.txt husaidia na bajeti ya kutambaa
Injini za utaftaji hazitambaa kila ukurasa kila siku. Wanatambaa kulingana na mipaka na ishara kama kasi ya wavuti, afya ya seva, na ni mara ngapi yaliyomo yako hubadilika.
Ikiwa tovuti yako ni polepole au inarudisha makosa, watambazaji wanaweza kutembelea kurasa chache kwa kila kukimbia. Hiyo inaweza kuchelewesha kuorodhesha kwa machapisho mapya na kurasa zilizosasishwa. Robots.txt husaidia kwa kupunguza kutambaa kwa upotevu, kwa hivyo roboti hutumia muda mwingi kwenye kurasa unazotaka zizingatie.
Kwa matokeo bora, tumia robots.txt na ramani ya tovuti:
- Robots.txt huongoza roboti juu ya nini cha kutambaa au kuruka
- Ramani ya tovuti huorodhesha kurasa unazotaka kutambaa na kuorodheshwa
Robots.txt Sheria Unapaswa Kujua
Faili ya robots.txt hutumia maagizo machache rahisi. Ni rahisi kusoma, lakini lazima uziandike kwa uangalifu.
- Wakala wa mtumiaji
- Inaweka bot ambayo sheria inatumika kwa bot
- Kataa
- Huzuia kutambaa kwa folda au njia
- Ruhusu
- Hufungua njia maalum ndani ya folda iliyozuiwa
- Kuchelewa kwa kutambaa
- Maombi ya kutambaa polepole kwa baadhi ya roboti (sio roboti zote zinazoifuata)
Kosa dogo linaweza kuzuia kurasa muhimu, pamoja na kategoria muhimu au kurasa za msingi za kutua. Ndiyo maana kutumia jenereta ni salama zaidi kuliko kuandika kila kitu kwa mikono.
Kwa nini tovuti za WordPress mara nyingi zinahitaji Robots.txt
WordPress inaweza kuunda URL nyingi ambazo hazisaidii SEO, kama kurasa za utaftaji wa ndani, kurasa zingine za kumbukumbu, na URL zinazotegemea vigezo. Kuzuia maeneo ya thamani ya chini husaidia watambazaji kutumia muda mwingi kwenye kurasa zako kuu, machapisho ya blogi, na kurasa za bidhaa au huduma.
Hata kwenye tovuti ndogo, faili safi ya robots.txt ni usanidi mzuri. Inaweka sheria zako za kutambaa zikiwa zimepangwa kadiri tovuti inavyokua.
Robots.txt na Tofauti ya Ramani ya Tovuti
Ramani ya tovuti husaidia injini za utaftaji kugundua kurasa unazotaka kutambaa. Robots.txt inadhibiti mahali ambapo roboti zinaweza kwenda.
- Ramani ya tovuti inaboresha ugunduzi
- Robots.txt inadhibiti ufikiaji wa kutambaa
Tovuti nyingi hufaidika kwa kutumia zote mbili.
Jinsi ya kuunda Robots.txt kwa kutumia jenereta hii
Robots.txt ni rahisi, lakini sio kusamehe. Sheria moja mbaya inaweza kuzuia kurasa muhimu. Jenereta hii hukusaidia kuunda faili kwa usalama.
Weka ufikiaji chaguo-msingi
Chagua ikiwa roboti zote zinaweza kutambaa tovuti yako kwa chaguo-msingi.
Ongeza URL yako ya ramani ya tovuti
Jumuisha ramani yako ya tovuti ili watambazaji waweze kupata kurasa zako muhimu haraka.
Ongeza njia zisizoruhusiwa kwa uangalifu
Zuia tu kile ambacho hutaki kutambaa. Daima anza na kufyeka mbele, kama:
/admin/ au /search/
Kagua kabla ya kuchapisha
Angalia mara mbili kuwa haukuzuia ukurasa wako wa nyumbani, blogi, kurasa za kategoria, au kurasa kuu za huduma.
Zana zinazohusiana za SEO zinazofanya kazi vizuri na Robots.txt
Robots.txt ni sehemu moja ya SEO ya kiufundi. Zana hizi zinasaidia lengo sawa na kukusaidia kuthibitisha kila kitu kinafanya kazi kwa usahihi:
- Kikagua Ramani ya Tovuti: Inathibitisha ramani yako ya tovuti ni halali na rahisi kwa roboti kusoma.
- Kikagua Faharasa cha Google: Huthibitisha ikiwa ukurasa unaweza kuorodheshwa na kuripoti vizuizi vya kawaida kama noindex.
- Angalia Msimbo wa Hali ya HTTP: Hupata makosa 200, 301, 404, na seva ambayo yanaweza kupunguza kasi ya kutambaa.
- Kikagua cha Kuelekeza Bila Malipo: Inathibitisha uelekezaji upya ni safi na haujakwama kwenye minyororo au vitanzi.
- Uchambuzi wa Lebo za Meta: Hupitia vichwa, maelezo, na lebo za meta za roboti kwa makosa ya SEO.
Nyaraka za API Zinakuja Hivi Karibuni
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.