विकास के अधीन

रोबोट्स.txt जेनरेटर |

विज्ञापन

सामान्य निर्देश

ओवरराइड लागू करने से पहले सभी क्रॉलर के लिए डिफ़ॉल्ट व्यवहार कॉन्फ़िगर करें।

User-agent: * के लिए वैश्विक अनुमति या अवरोध नियम सेट करें।

यदि आपके सर्वर को सांस लेने के लिए जगह चाहिए तो क्रॉलर की गति धीमी कर दें।

मिरर किए गए डोमेन के लिए वैकल्पिक होस्ट निर्देश।

प्रति पंक्ति एक ही पथ। वाइल्डकार्ड और ट्रेलिंग स्लैश का समर्थन करता है।

यह सुनिश्चित करें कि व्यापक पथ अवरुद्ध होने पर भी विशिष्ट फ़ोल्डर क्रॉल करने योग्य बने रहें।

प्रत्येक पंक्ति में एक साइटमैप URL प्रदान करें। यदि आपके पास अतिरिक्त साइटमैप इंडेक्स हैं, तो उन्हें भी जोड़ें।

सामान्य रेंगने वाले

आप जिन क्रॉलर को पूरी तरह से ब्लॉक करना चाहते हैं, उन्हें टॉगल करें। बाकी को अनुमति देने पर ऊपर दिए गए डिफ़ॉल्ट नियम का पालन होगा।

अनुकूलित नियम

अनुकूलित अनुमति या अवरोध निर्देश, क्रॉल विलंब और साइटमैप संकेत के साथ उपयोगकर्ता-एजेंट जोड़ें।

ऊपर जनरेट की गई फ़ाइल को कॉपी करें और इसे अपने डोमेन के रूट फ़ोल्डर में robots.txt के रूप में अपलोड करें।

खोज इंजन क्रॉलिंग व्यवहार को नियंत्रित करने के लिए robots.txt फ़ाइलें जेनरेट करें।
Table of Contents

Robots.txt एक छोटी टेक्स्ट फ़ाइल है जो आपकी साइट पर खोज बॉट का मार्गदर्शन करती है।

व्यवस्थापक पृष्ठ, स्टेजिंग फ़ोल्डर, परीक्षण URL, फ़िल्टर पृष्ठ और डुप्लिकेट पथ जैसे क्षेत्रों को ब्लॉक करने के लिए robots.txt का उपयोग करें।

robots.txt रोबोट बहिष्करण मानक का हिस्सा है।

yourdomain.com/robots.txt

खोज इंजन अक्सर इस फ़ाइल की जल्दी जाँच करते हैं क्योंकि यह उन्हें स्पष्ट क्रॉलिंग दिशा-निर्देश देता है।

एक महत्वपूर्ण बिंदु:

  • robots.txt क्रॉलिंग को नियंत्रित करता है
  • यह अनुक्रमण की गारंटी नहीं देता है

यदि आप यह पुष्टि करना चाहते हैं कि कोई पृष्ठ खोज परिणामों में दिखाई दे सकता है, तो इंडेक्सेबिलिटी जांच का उपयोग करें।

सर्च इंजन हर दिन हर पेज को क्रॉल नहीं करते हैं।

यदि आपकी साइट धीमी है या त्रुटियाँ लौटाती है, तो क्रॉलर प्रति रन कम पृष्ठों पर जा सकते हैं।

सर्वोत्तम परिणामों के लिए, साइटमैप के साथ robots.txt का उपयोग करें:

  • Robots.txt बॉट्स को मार्गदर्शन देता है कि क्या क्रॉल करना है या क्या छोड़ना है
  • साइटमैप उन पृष्ठों को सूचीबद्ध करता है जिन्हें आप क्रॉल और अनुक्रमित करना चाहते हैं

एक robots.txt फ़ाइल कुछ सरल निर्देशों का उपयोग करती है।

  • उपयोगकर्ता-एजेंट
  • सेट करता है कि नियम किस बॉट पर लागू होता है
  • अस्वीकार
  • किसी फ़ोल्डर या पथ के लिए क्रॉलिंग को ब्लॉक करता है
  • अनुमति दें
  • अवरुद्ध फ़ोल्डर के अंदर एक विशिष्ट पथ खोलता है
  • क्रॉल-विलंब
  • कुछ बॉट्स के लिए धीमी क्रॉलिंग का अनुरोध (सभी बॉट्स इसका पालन नहीं करते)

एक छोटी सी गलती प्रमुख श्रेणियों या मुख्य लैंडिंग पृष्ठों सहित महत्वपूर्ण पृष्ठों को ब्लॉक कर सकती है।

वर्डप्रेस कई यूआरएल बना सकता है जो एसईओ में मदद नहीं करते हैं, जैसे आंतरिक खोज पेज, कुछ संग्रह पेज और पैरामीटर-आधारित यूआरएल।

छोटी साइटों पर भी, एक साफ़ robots.txt फ़ाइल एक स्मार्ट सेटअप है।

साइटमैप खोज इंजनों को उन पृष्ठों को खोजने में मदद करता है जिन्हें आप क्रॉल करना चाहते हैं।

  • साइटमैप खोज में सुधार करता है
  • Robots.txt क्रॉलिंग एक्सेस को नियंत्रित करता है

अधिकांश वेबसाइटें दोनों का उपयोग करने से लाभान्वित होती हैं।

robots.txt सरल है, लेकिन यह क्षमाशील नहीं है।

डिफ़ॉल्ट पहुंच सेट करें

चुनें कि क्या सभी बॉट आपकी साइट को डिफ़ॉल्ट रूप से क्रॉल कर सकते हैं।

अपना साइटमैप URL जोड़ें

अपना साइटमैप शामिल करें ताकि क्रॉलर आपके महत्वपूर्ण पेज तेज़ी से ढूंढ सकें।

अस्वीकृत पथों को सावधानीपूर्वक जोड़ें

केवल वही ब्लॉक करें जिसे आप वास्तव में क्रॉल नहीं करना चाहते।

/एडमिन/ या /खोज/

प्रकाशन से पहले समीक्षा करें

दोबारा जांचें कि आपने अपना होमपेज, ब्लॉग, श्रेणी पेज या मुख्य सेवा पेज ब्लॉक नहीं किया है।

Robots.txt तकनीकी SEO का एक हिस्सा है.

  • साइटमैप चेकर: पुष्टि करता है कि आपका साइटमैप वैध है और बॉट्स के लिए इसे पढ़ना आसान है।
  • Google इंडेक्स चेकर: सत्यापित करता है कि किसी पृष्ठ को अनुक्रमित किया जा सकता है या नहीं और नोइंडेक्स जैसे सामान्य अवरोधकों को चिह्नित करता है।
  • HTTP स्टेटस कोड जांचें: 200, 301, 404, और सर्वर त्रुटियां ढूंढता है जो क्रॉलिंग को धीमा कर सकती हैं।
  • निःशुल्क रीडायरेक्ट चेकर: पुष्टि करता है कि रीडायरेक्ट साफ-सुथरे हैं और चेन या लूप में फंसे नहीं हैं।
  • मेटा टैग विश्लेषण: एसईओ गलतियों के लिए शीर्षक, विवरण और रोबोट मेटा टैग की समीक्षा करता है।