common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt գեներատոր |
Ընդհանուր հրահանգներ
Կարգավորեք բոլոր սողացողների լռելյայն վարքագիծը շերտավորման վրադրումներից առաջ։
Սահմանեք գլոբալ թույլատրելի կամ արգելափակող կանոն User-agent-ի համար՝ *.
Եթե ձեր սերվերին անհրաժեշտ է շնչառության տարածք, կարգավորեք «խողովակաշարերը»։
Հայելային տիրույթների համար լրացուցիչ հոսթի հրահանգ։
Մեկ ուղի մեկ տողի համար։ Աջակցում է խմբային նշաններ և վերջում գտնվող թեք գծեր։
Համոզվեք, որ որոշակի թղթապանակներ մնում են սկանավորելի, նույնիսկ երբ ավելի լայն ուղիները արգելափակված են։
Յուրաքանչյուր տողում տրամադրեք մեկ կայքի քարտեզի URL: Ավելացրեք լրացուցիչ կայքի քարտեզի ինդեքսներ, եթե ունեք:
Սովորական սողացողներ
Ամբողջությամբ անջատեք կամ անջատեք այն որոնողական համակարգերը, որոնք ցանկանում եք արգելափակել: Թողեք, որ դրանք կարողանան հիմնվել վերևում նշված լռելյայն կանոնի վրա:
Հատուկ կանոններ
Ավելացրեք օգտատիրոջ գործակալներ՝ հարմարեցված թույլատրման կամ արգելափակման դիրեկտիվներով, սկանավորման ուշացումներով և կայքի քարտեզի հուշումներով։
Դեռևս հատուկ կանոններ չկան: Օգտագործեք վերևում գտնվող կոճակը՝ մեկը ստեղծելու համար:
Ճշգրիտ կամ wildcard user-agent տող։
Պատճենեք վերևում ստեղծված ֆայլը և վերբեռնեք այն ձեր դոմեյնի արմատային համակարգ՝ որպես robots.txt:
Բովանդակության աղյուսակ
Robots.txt գեներատոր ավելի լավ սողացող եւ ինդեքսավորման համար
Robots.txt-ը փոքր տեքստային ֆայլ է, որն ուղղորդում է որոնման բոտերին ձեր կայքում: Այն սողուններին ասում է, թե որ տարածքները կարող են մուտք գործել եւ որ ուղիներից պետք է խուսափեն։ Սա կենտրոնացնում է կարեւոր էջերի վրա եւ նվազեցնում է ցածր արժեք ունեցող URL-ների վրա վատնված այցելությունները։
Օգտագործեք robots.txt՝ արգելափակելու այնպիսի ոլորտներ, ինչպիսիք են ադմինիստրատորի էջերը, փուլավորման թղթապանակները, փորձարկման URL-ները, ֆիլտրման էջերը եւ կրկնօրինակ ուղիները: Երբ ձեր կանոնները հստակ են, որոնողական համակարգերը ավելի շատ ժամանակ են անցկացնում ձեր կարեւոր էջերում։ Դա կարող է օգնել նոր բովանդակությանը ավելի արագ հայտնաբերել եւ մաքուր ու կանխատեսելի սողալ։
Ինչ Robots.txt նշանակում է SEO-ում
Robots.txt ռոբոտների բացառման ստանդարտի մի մասն է։ Դուք տեղադրում եք այն՝
yourdomain.com/robots.txt
Որոնողական համակարգերը հաճախ շուտ ստուգում են այս ֆայլը, քանի որ այն հստակ ուղղություններ է տալիս։ Եթե ձեր կայքը փոքր է, ապա այն կարող է ինդեքսավորվել առանց robots.txt նիշքի։ Սակայն ավելի մեծ կայքերում առաջնորդության բացակայությունը կարող է հանգեցնել սողալու եւ գլխավոր էջերի դանդաղ հայտնաբերման։
Մի կարեւոր կետ.
- Robots.txt վերահսկում է սողացող
- Այն չի երաշխավորում ինդեքսավորում
Եթե ցանկանում եք հաստատել, որ էջը կարող է հայտնվել որոնման արդյունքներում, օգտագործեք ինդեքսավորելիության ստուգում: Դա օգնում է ձեզ նկատել այնպիսի ազդանշաններ, ինչպիսիք են noindex-ը, արգելափակված ռեսուրսները կամ այլ խնդիրներ, որոնք robots.txt չի ծածկում։
Ինչո՞ւ Robots.txt օգնում է սողացող բյուջեին
Որոնողական համակարգերը ամեն օր չեն սողում յուրաքանչյուր էջ։ Նրանք սողում են՝ հիմնվելով սահմանափակումների եւ ազդանշանների վրա, ինչպիսիք են կայքի արագությունը, սերվերի առողջությունը եւ որքան հաճախ է ձեր բովանդակությունը փոխվում։
Եթե ձեր կայքը դանդաղ է կամ սխալներ է վերադարձնում, սողունները կարող են այցելել ավելի քիչ էջեր մեկ վազքի ընթացքում: Դա կարող է հետաձգել նոր գրառումների եւ թարմացված էջերի ինդեքսավորումը։ Robots.txt օգնում է նվազեցնել վատնված սողանքները, ուստի բոտերը ավելի շատ ժամանակ են ծախսում այն էջերի վրա, որոնց վրա իրականում ուզում եք, որ նրանք կենտրոնանան։
Լավագույն արդյունքների համար օգտագործեք robots.txt կայքի քարտեզի հետ:
- Robots.txt ուղղորդում է բոտերին, թե ինչ սողալ կամ բաց թողնել
- Կայքի քարտեզը ցուցակում է այն էջերը, որոնք ցանկանում եք ածանել եւ ինդեքսավորել
Robots.txt կանոններ, որոնք պետք է իմանաք
robots.txt ֆայլը օգտագործում է մի քանի պարզ հրահանգներ։ Դրանք հեշտ են ընթերցվում, բայց պետք է ուշադիր գրել։
- Օգտվող-գործակալ
- Սահմանում է, թե որ բոտի համար է կիրառվում կանոնը
- Չթույլատրել
- Պանակի կամ ուղու համար սողացող արգելափակումներ
- Թույլատրել
- Բացում է որոշակի ուղի արգելափակված պանակի ներսում
- Սողացող հետաձգում
- Պահանջում է ավելի դանդաղ սողալ որոշ բոտերի համար (ոչ բոլոր բոտերն են հետեւում դրան)
Փոքր սխալը կարող է արգելափակել կարեւոր էջերը, ներառյալ հիմնական կատեգորիաները կամ հիմնական լենդինգ էջերը։ Ահա թե ինչու գեներատորի օգտագործումն ավելի անվտանգ է, քան ամեն ինչ ձեռքով գրելը։
Ինչու WordPress կայքերը հաճախ կարիք ունեն Robots.txt
WordPress-ը կարող է ստեղծել բազմաթիվ URL-ներ, որոնք չեն օգնում SEO-ին, օրինակ՝ ներքին որոնման էջերը, որոշ արխիվային էջեր եւ պարամետրերի վրա հիմնված URL-ներ։ Ցածրարժեք տարածքների արգելափակումը օգնում է սողուններին ավելի շատ ժամանակ անցկացնել ձեր հիմնական էջերում, բլոգային գրառումներում եւ ապրանքների կամ ծառայությունների էջերում:
Նույնիսկ փոքր կայքերում մաքուր robots.txt ֆայլը խելացի կարգավորում է։ Այն պահում է ձեր սողացող կանոնները կազմակերպված, քանի որ կայքը աճում է:
Robots.txt եւ կայքի քարտեզի տարբերությունը
Կայքի քարտեզը օգնում է որոնման համակարգերին բացահայտել այն էջերը, որոնք ցանկանում եք սողալ: Robots.txt վերահսկում է, թե ուր կարող են գնալ բոտերը։
- Կայքի քարտեզը բարելավում է բացահայտումը
- Robots.txt կառավարում է սողացող մատչումը
Կայքերի մեծ մասը օգուտ է քաղում երկուսն էլ օգտագործելուց։
Ինչպես ստեղծել Robots.txt օգտագործելով այս գեներատոր
Robots.txt պարզ է, բայց ներողամիտ չէ։ Մեկ սխալ կանոն կարող է արգելափակել առանցքային էջերը։ Այս գեներատոր օգնում է ձեզ կառուցել ֆայլը անվտանգ.
Կայել լռելյայն մատչում
Ընտրեք, թե արդյոք բոլոր բոտերը կարող են սողալ ձեր կայքը ըստ լռելյայնի:
Ավելացրեք ձեր կայքի քարտեզի URL
Ներառեք ձեր կայքի քարտեզը, որպեսզի սողունները կարողանան ավելի արագ գտնել ձեր կարեւոր էջերը:
Զգուշորեն ավելացրեք անթույլատրելի ուղիները
Արգելափակեք միայն այն, ինչ իսկապես չեք ուզում։ Միշտ սկսեք առաջ սլեշով, ինչպես.
/admin/ կամ /որոնել/
Վերանայել հրապարակումից առաջ
Կրկնակի ստուգեք, որ չեք արգելափակել ձեր գլխավոր էջը, բլոգը, կատեգորիայի էջերը կամ հիմնական սպասարկման էջերը:
Հարակից SEO գործիքներ, որոնք լավ են աշխատում Robots.txt հետ
Robots.txt տեխնիկական SEO-ի մի մասն է։ Այս գործիքները աջակցում են նույն նպատակին եւ օգնում են ձեզ հաստատել, որ ամեն ինչ ճիշտ է աշխատում.
- Կայքի քարտեզի ստուգիչ. Հաստատում է, որ ձեր կայքի քարտեզը վավեր է եւ հեշտ է կարդալ բոտերի համար։
- Google Index Checker: Ստուգում է, թե արդյոք էջը կարող է ինդեքսավորվել եւ դրոշմում է սովորական արգելափակիչները, ինչպիսիք են noindex-ը:
- Ստուգեք HTTP կարգավիճակի կոդը: Գտնում է 200, 301, 404 եւ սերվերի սխալներ, որոնք կարող են դանդաղեցնել սողումը:
- Անվճար վերահղման ստուգիչ. Հաստատում է, որ վերահղումները մաքուր են եւ չեն խրվում շղթաների կամ օղակների մեջ։
- Meta Tags վերլուծություն. Վերանայում է վերնագրերը, նկարագրությունները եւ ռոբոտների մետա թեգերը SEO սխալների համար:
API փաստաթղթերը շուտով կհրապարակվեն
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.