Robots.txt جنریټر |
عمومي لارښوونې
د پرتونو د اووررایډ کولو دمخه د ټولو کرالرونو لپاره ډیفالټ چلند تنظیم کړئ.
د کارونکي اجنټ لپاره د نړیوال اجازه ورکولو یا بندولو قاعده تنظیم کړئ: *.
که ستاسو سرور د ساه اخیستلو ځای ته اړتیا ولري، نو کرولرونه تروټل کړئ.
د منعکس شویو ډومینونو لپاره اختیاري کوربه لارښود.
په هره کرښه کې یوه لاره. د وائلډ کارډونو او وروستي سلیشونو ملاتړ کوي.
ډاډ ترلاسه کړئ چې ځانګړي فولډرونه د ګرځېدو وړ پاتې کیږي حتی کله چې پراخې لارې بندې وي.
په هره کرښه کې یو د سایټ نقشې URL ورکړئ. که تاسو یې لرئ نو اضافي د سایټ نقشې شاخصونه اضافه کړئ.
عام کرالران
هغه کرالرونه چې تاسو یې په بشپړ ډول بندول غواړئ بدل کړئ. دوی ته اجازه ورکړئ چې په پورته ډیفالټ قاعده تکیه وکړي.
دودیز قوانین
د کارونکي اجنټان د مناسب اجازه ورکولو یا بلاک لارښوونو، د کرول ځنډونو، او د سایټ نقشې اشارو سره اضافه کړئ.
تر اوسه کوم دودیز قوانین نشته. د جوړولو لپاره پورته تڼۍ وکاروئ.
دقیق یا وائلډ کارډ کارونکي-ایجنټ تار.
پورته تولید شوی فایل کاپي کړئ او د خپل ډومین روټ ته یې د robots.txt په توګه اپلوډ کړئ.
د محتوياتو جدول
Robots.txt جنریټر د ښه کرال او انډیکسنګ لپاره
Robots.txt یو کوچنی متن فایل دی چې ستاسو په سایټ کې د لټون بوټونو لارښوونه کوی. دا کرالانو ته وایی چې کومې سیمې ته لاسرسی لری او کومې لارې باید مخنیوی وکړی. دا کار د هغو پاڼو تمرکز کوی چې اهمیت لری او د ټیټ ارزښت لرونکو URLونو ضایع لیدنې کموی.
robots.txt وکاروئ ترڅو سیمې لکه اداری پاڼې، سټیجینګ فولډرونه، د ازموینې URLونه، پاڼې فلټر کړئ، او تکراری لارې بندې کړئ. کله چې ستا قواعد روښانه وی، د لټون انجنونه ډېر وخت ستا مهمو پاڼو ته تېروی. دا کولی شی نوې محتوا ژر کشف کړی او پاکه او وړاندوینه کېدونکی پاتې شی.
په SEO کې Robots.txt څه معنی لری
Robots.txt د روبوټونو د استثنا معیار برخه ده. تاسو دا په لاندې ځایونو کې ځای پر ځای کوئ:
yourdomain.com/robots.txt
د لټون انجنونه اکثره دا فایل ژر ګوری ځکه چې دا ورته واضح لارښوونې ورکوی. که ستاسو سایټ کوچنی وی، کېدای شی بیا هم پرته له robots.txt فایل انډیکس شی. خو په لویو سایټونو کې، د لارښوونې له لاسه ورکول د کرال کولو ضایع او د مهمو پاڼو ورو موندلو لامل کېدای شی.
یوه مهمه خبره:
- Robots.txt کنټرولونه خزېږی
- دا د شاخص کولو تضمین نه کوی
که غواړئ تایید کړئ چې یوه پاڼه د لټون پایلو کې ښکاریدای شی، نو د شاخص وړتیا چک وکاروئ. دا مرسته کوی چې سیګنالونه لکه noindex، blocked resources، یا نورې ستونزې چې robots.txt نه پوښی، پیدا کړئ.
ولې Robots.txt د کرال بودیجې سره مرسته کوی
د لټون انجنونه هره ورځ هره پاڼه نه ګوری. هغوی د محدودیتونو او نښو لکه د سایټ سرعت، سرور روغتیا، او ستاسو د محتوا د بدلولو پر اساس خځلې کوی.
که ستاسو سایټ ورو وی یا تېروتنې راولی، کرالرونه ممکن په هر ځل کې لږ پاڼې وګوری. دا کولی شی د نوو پوسټونو او تازه شویو پاڼو لپاره فهرست کول وځنډوی. Robots.txt مرسته کوی چې ضایع شوی crawls کموی، نو بوټونه ډېر وخت په هغو پاڼو تېروی چې ته واقعاً غواړې تمرکز پرې وکړی.
د غوره پایلو لپاره، robots.txt د سایټ نقشه سره وکاروئ:
- Robots.txt بوټونو ته لارښوونه کوی چې څه کرال وکړی یا څه پرېږدی
- سایټ نقشه هغه پاڼې لیست کوی چې غواړئ کرال او انډیکس یې کړئ
Robots.txt اصول چې باید پوه شې
یو robots.txt فایل څو ساده لارښوونې کاروی. لوستل یې اسانه دی، خو باید یې په احتیاط ولیکې.
- User-agent
- دا ټاکی: کوم بوټ ته دا قاعده تطبیقېږی
- اجازه نه ورکول
- بلاکونه چې د فولډر یا لارې لپاره خزېږی
- اجازه راکړئ
- د بند شوی فولډر دننه ځانګړی لاره پرانیزی.
- کرال-ډیلې
- د ځینو بوټونو لپاره د ورو کرال غوښتنې (ټول بوټونه یې نه تعقیبوی)
یوه کوچنۍ تېروتنه مهمې پاڼې بندولی شی، چې پکې کلیدی کټګورۍ یا اصلی لینډینګ پاڼې شاملې دی. له همدې امله د جنراتور کارول د هر څه د لاسی لیکلو څخه خوندی دی.
ولې WordPress سایټونه اکثره وخت اړتیا Robots.txt
WordPress کولی شی ډېر URLونه جوړ کړی چې SEO ته مرسته نه کوی، لکه داخلی لټون پاڼې، ځینې آرشیف پاڼې، او د پارامیټر پر بنسټ URLs. د ټیټ ارزښت لرونکو ساحو بندول د کرالرانو سره مرسته کوی چې ستاسو په اصلی پاڼو، بلاګ پوسټونو، او د محصول یا خدمت پاڼو باندې ډیر وخت تیر کړی.
حتی په کوچنیو سایټونو کې هم، پاک robots.txt فایل هوښیار تنظیم دی. دا ستاسو د کرال قواعد منظم ساتی لکه څنګه چې سایټ وده کوی.
Robots.txt او د سایټ نقشه توپیر
د سایټ نقشه د لټون انجنونو سره مرسته کوی چې هغه پاڼې پیدا کړی چې تاسو غواړئ کرال یې کړئ. Robots.txt دا کنټرولوی چې بوټونه چیرته تللی شی.
- Sitemap موندنې ته ښه والی ورکوی
- Robots.txt د خزنده لاسرسی کنټرولوی.
اکثره ویب سایټونه له دواړو کارولو ګټه اخلی.
څنګه د دې جنراتور په کارولو Robots.txt جوړ کړو
Robots.txt ساده ده، خو بخښونکی نه ده. یوه غلطه قاعده کلیدی پاڼې بندولی شی. دا جنریټر مرسته کوی چې فایل خوندی جوړ کړې.
ډیفالټ لاسرسی وټاکئ
وټاکئ چې آیا ټول بوټونه کولی شی ستاسو سایټ په ډیفالټ ډول کرال کړی که نه.
خپل سایټ نقشه URL اضافه کړئ
خپل سایټ نقشه پکې شامل کړئ څو کرالران ستاسو مهمې پاڼې ژر پیدا کړی.
په احتیاط سره منع لارې اضافه کړئ
یوازې هغه څه بند کړه چې ته واقعاً نه غواړې چې کرال شی. تل د مخکینی سلش سره پیل وکړئ، لکه:
/admin/ یا /search/
بیاکتنه مخکې له خپرولو
بیا وګورئ چې آیا تاسو خپل کورپاڼه، بلاګ، کټګورۍ پاڼې، یا اصلی خدمت پاڼې نه دی بند کړی.
اړوند SEO وسایل چې له Robots.txt
Robots.txt د تخنیکی SEO یوه برخه ده. دا وسایل هم یو هدف ملاتړ کوی او تاسو سره مرسته کوی چې هر څه سم کار کوی:
- Sitemap Checker: تاییدوی چې ستاسو سایټ نقشه معتبر او د بوټونو لپاره لوستل اسانه ده.
- Google Index Checker: دا تاییدوی چې آیا یوه پاڼه انډیکس کېدای شی او عام بلاکرونه لکه noindex نښه کوی.
- د HTTP حالت کوډ وګوره: ۲۰۰، ۳۰۱، ۴۰۴، او سرور تېروتنې پیدا کوی چې کرال کول ورو کوی.
- وړیا ریدایرکت چیکر: تاییدوی چې ریدایرکټونه پاک دی او په زنځیرونو یا حلقو کې بند نه دی.
- د میټا ټاګونو تحلیل: د SEO تېروتنو لپاره سرلیکونه، تشریحات، او روبوټ میټا ټګونه ارزونه.
د API اسناد ډیر ژر راځي
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.