common.you_need_to_be_loggedin_to_add_tool_in_favorites
रोबोट्स.txt जेनरेटर |
सामान्य निर्देश
ओवरराइड लागू करने से पहले सभी क्रॉलर के लिए डिफ़ॉल्ट व्यवहार कॉन्फ़िगर करें।
User-agent: * के लिए वैश्विक अनुमति या अवरोध नियम सेट करें।
यदि आपके सर्वर को सांस लेने के लिए जगह चाहिए तो क्रॉलर की गति धीमी कर दें।
मिरर किए गए डोमेन के लिए वैकल्पिक होस्ट निर्देश।
प्रति पंक्ति एक ही पथ। वाइल्डकार्ड और ट्रेलिंग स्लैश का समर्थन करता है।
यह सुनिश्चित करें कि व्यापक पथ अवरुद्ध होने पर भी विशिष्ट फ़ोल्डर क्रॉल करने योग्य बने रहें।
प्रत्येक पंक्ति में एक साइटमैप URL प्रदान करें। यदि आपके पास अतिरिक्त साइटमैप इंडेक्स हैं, तो उन्हें भी जोड़ें।
सामान्य रेंगने वाले
आप जिन क्रॉलर को पूरी तरह से ब्लॉक करना चाहते हैं, उन्हें टॉगल करें। बाकी को अनुमति देने पर ऊपर दिए गए डिफ़ॉल्ट नियम का पालन होगा।
अनुकूलित नियम
अनुकूलित अनुमति या अवरोध निर्देश, क्रॉल विलंब और साइटमैप संकेत के साथ उपयोगकर्ता-एजेंट जोड़ें।
अभी तक कोई कस्टम नियम नहीं हैं। एक नया नियम बनाने के लिए ऊपर दिए गए बटन का उपयोग करें।
सटीक या वाइल्डकार्ड यूजर-एजेंट स्ट्रिंग।
ऊपर जनरेट की गई फ़ाइल को कॉपी करें और इसे अपने डोमेन के रूट फ़ोल्डर में robots.txt के रूप में अपलोड करें।
बेहतर क्रॉलिंग और इंडेक्सिंग के लिए रोबोट.txt जेनरेटर
Robots.txt एक छोटी टेक्स्ट फ़ाइल है जो आपकी साइट पर खोज बॉट का मार्गदर्शन करती है।
व्यवस्थापक पृष्ठ, स्टेजिंग फ़ोल्डर, परीक्षण URL, फ़िल्टर पृष्ठ और डुप्लिकेट पथ जैसे क्षेत्रों को ब्लॉक करने के लिए robots.txt का उपयोग करें।
SEO में robots.txt का क्या अर्थ है?
robots.txt रोबोट बहिष्करण मानक का हिस्सा है।
yourdomain.com/robots.txt
खोज इंजन अक्सर इस फ़ाइल की जल्दी जाँच करते हैं क्योंकि यह उन्हें स्पष्ट क्रॉलिंग दिशा-निर्देश देता है।
एक महत्वपूर्ण बिंदु:
- robots.txt क्रॉलिंग को नियंत्रित करता है
- यह अनुक्रमण की गारंटी नहीं देता है
यदि आप यह पुष्टि करना चाहते हैं कि कोई पृष्ठ खोज परिणामों में दिखाई दे सकता है, तो इंडेक्सेबिलिटी जांच का उपयोग करें।
क्यों robots.txt क्रॉल बजट में मदद करता है
सर्च इंजन हर दिन हर पेज को क्रॉल नहीं करते हैं।
यदि आपकी साइट धीमी है या त्रुटियाँ लौटाती है, तो क्रॉलर प्रति रन कम पृष्ठों पर जा सकते हैं।
सर्वोत्तम परिणामों के लिए, साइटमैप के साथ robots.txt का उपयोग करें:
- Robots.txt बॉट्स को मार्गदर्शन देता है कि क्या क्रॉल करना है या क्या छोड़ना है
- साइटमैप उन पृष्ठों को सूचीबद्ध करता है जिन्हें आप क्रॉल और अनुक्रमित करना चाहते हैं
robots.txt नियम जो आपको जानना चाहिए
एक robots.txt फ़ाइल कुछ सरल निर्देशों का उपयोग करती है।
- उपयोगकर्ता-एजेंट
- सेट करता है कि नियम किस बॉट पर लागू होता है
- अस्वीकार
- किसी फ़ोल्डर या पथ के लिए क्रॉलिंग को ब्लॉक करता है
- अनुमति दें
- अवरुद्ध फ़ोल्डर के अंदर एक विशिष्ट पथ खोलता है
- क्रॉल-विलंब
- कुछ बॉट्स के लिए धीमी क्रॉलिंग का अनुरोध (सभी बॉट्स इसका पालन नहीं करते)
एक छोटी सी गलती प्रमुख श्रेणियों या मुख्य लैंडिंग पृष्ठों सहित महत्वपूर्ण पृष्ठों को ब्लॉक कर सकती है।
वर्डप्रेस साइटों को अक्सर robots.txt की आवश्यकता क्यों होती है?
वर्डप्रेस कई यूआरएल बना सकता है जो एसईओ में मदद नहीं करते हैं, जैसे आंतरिक खोज पेज, कुछ संग्रह पेज और पैरामीटर-आधारित यूआरएल।
छोटी साइटों पर भी, एक साफ़ robots.txt फ़ाइल एक स्मार्ट सेटअप है।
robots.txt और साइटमैप अंतर
साइटमैप खोज इंजनों को उन पृष्ठों को खोजने में मदद करता है जिन्हें आप क्रॉल करना चाहते हैं।
- साइटमैप खोज में सुधार करता है
- Robots.txt क्रॉलिंग एक्सेस को नियंत्रित करता है
अधिकांश वेबसाइटें दोनों का उपयोग करने से लाभान्वित होती हैं।
इस जेनरेटर का उपयोग करके robots.txt कैसे बनाएं
robots.txt सरल है, लेकिन यह क्षमाशील नहीं है।
डिफ़ॉल्ट पहुंच सेट करें
चुनें कि क्या सभी बॉट आपकी साइट को डिफ़ॉल्ट रूप से क्रॉल कर सकते हैं।
अपना साइटमैप URL जोड़ें
अपना साइटमैप शामिल करें ताकि क्रॉलर आपके महत्वपूर्ण पेज तेज़ी से ढूंढ सकें।
अस्वीकृत पथों को सावधानीपूर्वक जोड़ें
केवल वही ब्लॉक करें जिसे आप वास्तव में क्रॉल नहीं करना चाहते।
/एडमिन/ या /खोज/
प्रकाशन से पहले समीक्षा करें
दोबारा जांचें कि आपने अपना होमपेज, ब्लॉग, श्रेणी पेज या मुख्य सेवा पेज ब्लॉक नहीं किया है।
संबंधित SEO उपकरण जो robots.txt के साथ अच्छा काम करते हैं
Robots.txt तकनीकी SEO का एक हिस्सा है.
- साइटमैप चेकर: पुष्टि करता है कि आपका साइटमैप वैध है और बॉट्स के लिए इसे पढ़ना आसान है।
- Google इंडेक्स चेकर: सत्यापित करता है कि किसी पृष्ठ को अनुक्रमित किया जा सकता है या नहीं और नोइंडेक्स जैसे सामान्य अवरोधकों को चिह्नित करता है।
- HTTP स्टेटस कोड जांचें: 200, 301, 404, और सर्वर त्रुटियां ढूंढता है जो क्रॉलिंग को धीमा कर सकती हैं।
- निःशुल्क रीडायरेक्ट चेकर: पुष्टि करता है कि रीडायरेक्ट साफ-सुथरे हैं और चेन या लूप में फंसे नहीं हैं।
- मेटा टैग विश्लेषण: एसईओ गलतियों के लिए शीर्षक, विवरण और रोबोट मेटा टैग की समीक्षा करता है।