common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt जेनरेटर |
सामान्य निर्देशनहरू
लेयरिङ ओभरराइड गर्नु अघि सबै क्रलरहरूको लागि पूर्वनिर्धारित व्यवहार कन्फिगर गर्नुहोस्।
प्रयोगकर्ता-एजेन्टको लागि विश्वव्यापी अनुमति वा रोक नियम सेट गर्नुहोस्: *।
यदि तपाईंको सर्भरलाई सास फेर्न ठाउँ चाहिन्छ भने थ्रोटल क्रलरहरू।
मिरर गरिएका डोमेनहरूको लागि वैकल्पिक होस्ट निर्देशन।
प्रति रेखा एउटा बाटो। वाइल्डकार्ड र ट्रेलिङ स्ल्यासहरूलाई समर्थन गर्दछ।
फराकिलो मार्गहरू अवरुद्ध हुँदा पनि विशिष्ट फोल्डरहरू क्रल गर्न मिल्ने सुनिश्चित गर्नुहोस्।
प्रति लाइन एउटा साइटम्याप URL प्रदान गर्नुहोस्। यदि तपाईंसँग थप साइटम्याप अनुक्रमणिकाहरू छन् भने ती थप्नुहोस्।
साधारण क्रलरहरू
तपाईंले पूर्ण रूपमा ब्लक गर्न चाहनुभएको क्रलरहरू टगल गर्नुहोस्। तिनीहरूलाई माथिको पूर्वनिर्धारित नियममा भर पर्न अनुमति दिनुहोस्।
अनुकूलन नियमहरू
अनुकूलित अनुमति वा ब्लक निर्देशनहरू, क्रल ढिलाइहरू, र साइटम्याप संकेतहरू सहित प्रयोगकर्ता-एजेन्टहरू थप्नुहोस्।
अहिलेसम्म कुनै पनि अनुकूलन नियम छैन। एउटा सिर्जना गर्न माथिको बटन प्रयोग गर्नुहोस्।
सटीक वा वाइल्डकार्ड प्रयोगकर्ता-एजेन्ट स्ट्रिङ।
माथिको उत्पन्न फाइल प्रतिलिपि गर्नुहोस् र यसलाई तपाईंको डोमेनको रूटमा robots.txt को रूपमा अपलोड गर्नुहोस्।
सामग्री तालिका
Robots.txt राम्रो क्रलिङ र अनुक्रमणिकाका लागि जेनरेटर
Robots.txt एक सानो पाठ फाइल हो जसले तपाईंको साइटमा खोज बटहरू मार्गदर्शन गर्दछ। यसले क्रलरहरूलाई बताउँछ कि उनीहरू कुन क्षेत्रहरूमा पहुँच गर्न सक्छन् र कुन मार्गहरूबाट बच्नु पर्छ। यसले महत्त्वपूर्ण पृष्ठहरूमा ध्यान केन्द्रित गर्दछ र कम मूल्यको यूआरएलहरूमा बर्बाद भ्रमणहरू कम गर्दछ।
प्रशासक पृष्ठहरू, स्टेजिंग फोल्डरहरू, परीक्षण यूआरएलहरू, फिल्टर पृष्ठहरू, र डुप्लिकेट मार्गहरू जस्ता क्षेत्रहरू ब्लक गर्न robots.txt प्रयोग गर्नुहोस्। जब तपाईंको नियमहरू स्पष्ट हुन्छन्, खोज ईन्जिनहरूले तपाईंको महत्त्वपूर्ण पृष्ठहरूमा बढी समय खर्च गर्छन्। यसले नयाँ सामग्री छिटो पत्ता लगाउन र क्रल गर्न सफा र पूर्वानुमानित राख्न मद्दत गर्दछ।
एसईओमा Robots.txt अर्थ के हो
Robots.txt रोबोट बहिष्करण मानकको हिस्सा हो। तपाईं यसलाई यहाँ राख्नुहुन्छ:
yourdomain.com/robots.txt
खोज ईन्जिनहरूले प्राय: यस फाइललाई चाँडै जाँच गर्छन् किनकि यसले तिनीहरूलाई स्पष्ट क्रल गर्ने दिशाहरू दिन्छ। यदि तपाईंको साइट सानो छ भने, यो अझै पनि robots.txt फाइल बिना अनुक्रमित हुन सक्छ। तर ठूला साइटहरूमा, हराएको मार्गदर्शनले व्यर्थ क्रल गर्न र कुञ्जी पृष्ठहरूको ढिलो पत्ता लगाउन सक्छ।
एउटा महत्त्वपूर्ण बुँदा:
- Robots.txt क्रलिङ नियन्त्रण गर्दछ
- यसले अनुक्रमणिकाको ग्यारेन्टी गर्दैन
यदि तपाईं पुष्टि गर्न चाहानुहुन्छ कि पृष्ठ खोज परिणामहरूमा देखा पर्न सक्छ, अनुक्रमणिका जाँच प्रयोग गर्नुहोस्। यसले तपाईंलाई संकेतहरू पत्ता लगाउन मद्दत गर्दछ जस्तै noindex, अवरुद्ध संसाधनहरू, वा अन्य मुद्दाहरू जुन robots.txt कभर गर्दैन।
किन Robots.txt क्रल बजेटको साथ मद्दत गर्दछ
खोज इन्जिनहरू हरेक दिन प्रत्येक पृष्ठ क्रल गर्दैनन्। तिनीहरू सीमा र संकेतहरू जस्तै साइटको गति, सर्भर स्वास्थ्य, र तपाईंको सामग्री कति पटक परिवर्तन हुन्छ भन्ने आधारमा क्रल गर्छन्।
यदि तपाईंको साइट ढिलो छ वा त्रुटिहरू फर्काउँछ भने, क्रलरहरूले प्रति रन कम पृष्ठहरू भ्रमण गर्न सक्दछन्। यसले नयाँ पोष्टहरू र अद्यावधिक पृष्ठहरूको लागि अनुक्रमणिकामे ढिलाइ गर्न सक्छ। Robots.txt बर्बाद क्रलहरू कम गरेर मद्दत गर्दछ, त्यसैले बटहरूले पृष्ठहरूमा बढी समय बिताउँछन् जुन तपाईं वास्तवमा तिनीहरूलाई ध्यान केन्द्रित गर्न चाहानुहुन्छ।
उत्तम परिणामहरूका लागि, साइटम्यापसँग robots.txt प्रयोग गर्नुहोस्:
- Robots.txt बटहरूलाई क्रल गर्ने वा छोड्ने बारे मार्गदर्शन गर्दछ
- साइटमानचित्रले तपाईँले क्रल गर्न चाहनुभएको र अनुक्रमण गर्न चाहनुभएको पृष्ठहरू सूचीबद्ध गर्दछ
Robots.txt नियमहरू तपाईंले जान्नु पर्छ
robots.txt फाइलले केही सरल निर्देशनहरू प्रयोग गर्दछ। तिनीहरू पढ्न सजिलो छन्, तर तपाईंले तिनीहरूलाई सावधानीपूर्वक लेख्नु पर्छ।
- प्रयोगकर्ता-अभिकर्ता
- कुन बोटमा नियम लागू हुन्छ सेट गर्दछ
- अनुमति नदिनुहोस्
- फोल्डर वा मार्गका लागि क्रल गर्ने खण्ड
- अनुमति दिनुहोस्
- रोकिएको फोल्डर भित्र निर्दिष्ट मार्ग खोल्दछ
- क्रल-विलम्ब
- केही बटहरूको लागि ढिलो क्रल गर्ने अनुरोधहरू (सबै बोटहरूले यसलाई पछ्याउँदैनन्)
एउटा सानो गल्तीले महत्त्वपूर्ण पृष्ठहरू ब्लक गर्न सक्छ, कुञ्जी कोटीहरू वा कोर ल्यान्डिंग पृष्ठहरू सहित। त्यसैले सबै कुरा म्यानुअल रूपमा लेख्नुभन्दा जेनेरेटरको प्रयोग गर्नु सुरक्षित छ।
किन वर्डप्रेस साइटहरू प्राय: Robots.txt
वर्डप्रेसले धेरै यूआरएलहरू सिर्जना गर्न सक्दछ जुन एसईओलाई मद्दत गर्दैन, जस्तै आन्तरिक खोज पृष्ठहरू, केही संग्रह पृष्ठहरू, र प्यारामिटर-आधारित यूआरएलहरू। कम मूल्य क्षेत्रहरू ब्लक गर्नाले क्रलरहरूलाई तपाईंको मुख्य पृष्ठहरू, ब्लग पोष्टहरू, र उत्पादन वा सेवा पृष्ठहरूमा बढी समय खर्च गर्न मद्दत गर्दछ।
साना साइटहरूमा पनि, सफा robots.txt फाइल एक स्मार्ट सेटअप हो। यसले तपाईंको क्रल नियमहरू व्यवस्थित राख्छ किनकि साइट बढ्दै जान्छ।
Robots.txt र साइटम्याप भिन्नता
साइटम्यापले खोज इन्जिनहरूलाई तपाईंले क्रल गर्न चाहानु भएको पृष्ठहरू पत्ता लगाउन मद्दत गर्दछ। Robots.txt नियन्त्रण गर्दछ जहाँ बटहरू जान सक्छन्।
- साइटम्यापले खोज सुधार गर्दछ
- Robots.txt क्रलिङ पहुँच नियन्त्रण गर्दछ
धेरै वेबसाइटहरू दुबै प्रयोग गरेर लाभ उठाउँछन्।
यो जेनेरेटर प्रयोग गरेर Robots.txt कसरी सिर्जना गर्ने
Robots.txt सरल छ, तर यो क्षमाशील छैन। एउटा गलत नियमले कुञ्जी पृष्ठहरू ब्लक गर्न सक्छ। यो जेनेरेटरले तपाईँलाई सुरक्षित रूपमा फाइल निर्माण गर्न मद्दत गर्छ ।
पूर्वनिर्धारित पहुँच सेट गर्नुहोस्
सबै बटहरूले पूर्वनिर्धारित रूपमा तपाईंको साइट क्रल गर्न सक्दछन् कि सक्दैनन् छनौट गर्नुहोस्।
तपाईँको साइटम्याप यूआरएल थप्नुहोस्
तपाईंको साइटम्याप समावेश गर्नुहोस् ताकि क्रलरहरूले तपाईंको महत्त्वपूर्ण पृष्ठहरू छिटो फेला पार्न सक्दछन्।
अनुमति नदिइएको बाटोहरू सावधानीपूर्वक थप्नुहोस्
तपाईँले साँच्चिकै क्रल गर्न चाहनुहुन्न मात्र त्यसलाई ब्लक गर्नुहोस् । जहिले पनि अगाडि स्ल्याशबाट सुरु गर्नुहोस्, जस्तै:
/व्यवस्थापक/वा/खोजी/
प्रकाशन गर्नु अघि समीक्षा गर्नुहोस्
तपाईँले आफ्नो गृहपृष्ठ, ब्लग, श्रेणी पृष्ठहरू, वा मुख्य सेवा पृष्ठहरू ब्लक गर्नुभएको छैन भनेर दोहोरो जाँच गर्नुहोस्।
सम्बन्धित एसईओ उपकरणहरू जुन राम्रोसँग काम Robots.txt
Robots.txt प्राविधिक एसईओको एक भाग हो। यी उपकरणहरूले समान लक्ष्यलाई समर्थन गर्दछ र तपाईंलाई सबै कुरा सही रूपमा काम गरिरहेको छ भनेर पुष्टि गर्न मद्दत गर्दछ:
- साइटम्याप परीक्षक: पुष्टि गर्दछ कि तपाईंको साइटम्याप मान्य छ र बटहरूको लागि पढ्न सजिलो छ।
- गुगल अनुक्रमणिका परीक्षक: पृष्ठ अनुक्रमणिका गर्न सकिन्छ कि छैन भनेर प्रमाणित गर्दछ र नोइन्डेक्स जस्ता सामान्य अवरोधकहरूलाई झण्डा लगाउँदछ।
- HTTP स्थिति कोड जाँच गर्नुहोस्: 200, 301, 404, र सर्भर त्रुटिहरू फेला पार्छ जुन क्रल गर्न ढिलो गर्न सक्छ।
- नि: शुल्क अनुप्रेषण परीक्षक: पुन: निर्देशनहरू सफा छन् र चेन वा लूपहरूमा अड्किएका छैनन् भनेर पुष्टि गर्दछ।
- मेटा ट्याग विश्लेषण: एसईओ गल्तीहरूको लागि शीर्षक, विवरण, र रोबोट मेटा ट्यागहरू समीक्षा गर्दछ।
API कागजात चाँडै आउँदैछ
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.