विकासमा छ

Robots.txt जेनरेटर |

विज्ञापन

सामान्य निर्देशनहरू

लेयरिङ ओभरराइड गर्नु अघि सबै क्रलरहरूको लागि पूर्वनिर्धारित व्यवहार कन्फिगर गर्नुहोस्।

प्रयोगकर्ता-एजेन्टको लागि विश्वव्यापी अनुमति वा रोक नियम सेट गर्नुहोस्: *।

यदि तपाईंको सर्भरलाई सास फेर्न ठाउँ चाहिन्छ भने थ्रोटल क्रलरहरू।

मिरर गरिएका डोमेनहरूको लागि वैकल्पिक होस्ट निर्देशन।

प्रति रेखा एउटा बाटो। वाइल्डकार्ड र ट्रेलिङ स्ल्यासहरूलाई समर्थन गर्दछ।

फराकिलो मार्गहरू अवरुद्ध हुँदा पनि विशिष्ट फोल्डरहरू क्रल गर्न मिल्ने सुनिश्चित गर्नुहोस्।

प्रति लाइन एउटा साइटम्याप URL प्रदान गर्नुहोस्। यदि तपाईंसँग थप साइटम्याप अनुक्रमणिकाहरू छन् भने ती थप्नुहोस्।

साधारण क्रलरहरू

तपाईंले पूर्ण रूपमा ब्लक गर्न चाहनुभएको क्रलरहरू टगल गर्नुहोस्। तिनीहरूलाई माथिको पूर्वनिर्धारित नियममा भर पर्न अनुमति दिनुहोस्।

अनुकूलन नियमहरू

अनुकूलित अनुमति वा ब्लक निर्देशनहरू, क्रल ढिलाइहरू, र साइटम्याप संकेतहरू सहित प्रयोगकर्ता-एजेन्टहरू थप्नुहोस्।

माथिको उत्पन्न फाइल प्रतिलिपि गर्नुहोस् र यसलाई तपाईंको डोमेनको रूटमा robots.txt को रूपमा अपलोड गर्नुहोस्।

खोज इन्जिन क्रलिङ व्यवहार नियन्त्रण गर्न robots.txt फाइलहरू उत्पन्न गर्नुहोस्।
विज्ञापन

सामग्री तालिका

Robots.txt एक सानो पाठ फाइल हो जसले तपाईंको साइटमा खोज बटहरू मार्गदर्शन गर्दछ। यसले क्रलरहरूलाई बताउँछ कि उनीहरू कुन क्षेत्रहरूमा पहुँच गर्न सक्छन् र कुन मार्गहरूबाट बच्नु पर्छ। यसले महत्त्वपूर्ण पृष्ठहरूमा ध्यान केन्द्रित गर्दछ र कम मूल्यको यूआरएलहरूमा बर्बाद भ्रमणहरू कम गर्दछ।

प्रशासक पृष्ठहरू, स्टेजिंग फोल्डरहरू, परीक्षण यूआरएलहरू, फिल्टर पृष्ठहरू, र डुप्लिकेट मार्गहरू जस्ता क्षेत्रहरू ब्लक गर्न robots.txt प्रयोग गर्नुहोस्। जब तपाईंको नियमहरू स्पष्ट हुन्छन्, खोज ईन्जिनहरूले तपाईंको महत्त्वपूर्ण पृष्ठहरूमा बढी समय खर्च गर्छन्। यसले नयाँ सामग्री छिटो पत्ता लगाउन र क्रल गर्न सफा र पूर्वानुमानित राख्न मद्दत गर्दछ।

Robots.txt रोबोट बहिष्करण मानकको हिस्सा हो। तपाईं यसलाई यहाँ राख्नुहुन्छ:

yourdomain.com/robots.txt

खोज ईन्जिनहरूले प्राय: यस फाइललाई चाँडै जाँच गर्छन् किनकि यसले तिनीहरूलाई स्पष्ट क्रल गर्ने दिशाहरू दिन्छ। यदि तपाईंको साइट सानो छ भने, यो अझै पनि robots.txt फाइल बिना अनुक्रमित हुन सक्छ। तर ठूला साइटहरूमा, हराएको मार्गदर्शनले व्यर्थ क्रल गर्न र कुञ्जी पृष्ठहरूको ढिलो पत्ता लगाउन सक्छ।

एउटा महत्त्वपूर्ण बुँदा:

  • Robots.txt क्रलिङ नियन्त्रण गर्दछ
  • यसले अनुक्रमणिकाको ग्यारेन्टी गर्दैन

यदि तपाईं पुष्टि गर्न चाहानुहुन्छ कि पृष्ठ खोज परिणामहरूमा देखा पर्न सक्छ, अनुक्रमणिका जाँच प्रयोग गर्नुहोस्। यसले तपाईंलाई संकेतहरू पत्ता लगाउन मद्दत गर्दछ जस्तै noindex, अवरुद्ध संसाधनहरू, वा अन्य मुद्दाहरू जुन robots.txt कभर गर्दैन।

खोज इन्जिनहरू हरेक दिन प्रत्येक पृष्ठ क्रल गर्दैनन्। तिनीहरू सीमा र संकेतहरू जस्तै साइटको गति, सर्भर स्वास्थ्य, र तपाईंको सामग्री कति पटक परिवर्तन हुन्छ भन्ने आधारमा क्रल गर्छन्।

यदि तपाईंको साइट ढिलो छ वा त्रुटिहरू फर्काउँछ भने, क्रलरहरूले प्रति रन कम पृष्ठहरू भ्रमण गर्न सक्दछन्। यसले नयाँ पोष्टहरू र अद्यावधिक पृष्ठहरूको लागि अनुक्रमणिकामे ढिलाइ गर्न सक्छ। Robots.txt बर्बाद क्रलहरू कम गरेर मद्दत गर्दछ, त्यसैले बटहरूले पृष्ठहरूमा बढी समय बिताउँछन् जुन तपाईं वास्तवमा तिनीहरूलाई ध्यान केन्द्रित गर्न चाहानुहुन्छ।

उत्तम परिणामहरूका लागि, साइटम्यापसँग robots.txt प्रयोग गर्नुहोस्:

  • Robots.txt बटहरूलाई क्रल गर्ने वा छोड्ने बारे मार्गदर्शन गर्दछ
  • साइटमानचित्रले तपाईँले क्रल गर्न चाहनुभएको र अनुक्रमण गर्न चाहनुभएको पृष्ठहरू सूचीबद्ध गर्दछ

robots.txt फाइलले केही सरल निर्देशनहरू प्रयोग गर्दछ। तिनीहरू पढ्न सजिलो छन्, तर तपाईंले तिनीहरूलाई सावधानीपूर्वक लेख्नु पर्छ।

  • प्रयोगकर्ता-अभिकर्ता
  • कुन बोटमा नियम लागू हुन्छ सेट गर्दछ
  • अनुमति नदिनुहोस्
  • फोल्डर वा मार्गका लागि क्रल गर्ने खण्ड
  • अनुमति दिनुहोस्
  • रोकिएको फोल्डर भित्र निर्दिष्ट मार्ग खोल्दछ
  • क्रल-विलम्ब
  • केही बटहरूको लागि ढिलो क्रल गर्ने अनुरोधहरू (सबै बोटहरूले यसलाई पछ्याउँदैनन्)

एउटा सानो गल्तीले महत्त्वपूर्ण पृष्ठहरू ब्लक गर्न सक्छ, कुञ्जी कोटीहरू वा कोर ल्यान्डिंग पृष्ठहरू सहित। त्यसैले सबै कुरा म्यानुअल रूपमा लेख्नुभन्दा जेनेरेटरको प्रयोग गर्नु सुरक्षित छ।

वर्डप्रेसले धेरै यूआरएलहरू सिर्जना गर्न सक्दछ जुन एसईओलाई मद्दत गर्दैन, जस्तै आन्तरिक खोज पृष्ठहरू, केही संग्रह पृष्ठहरू, र प्यारामिटर-आधारित यूआरएलहरू। कम मूल्य क्षेत्रहरू ब्लक गर्नाले क्रलरहरूलाई तपाईंको मुख्य पृष्ठहरू, ब्लग पोष्टहरू, र उत्पादन वा सेवा पृष्ठहरूमा बढी समय खर्च गर्न मद्दत गर्दछ।

साना साइटहरूमा पनि, सफा robots.txt फाइल एक स्मार्ट सेटअप हो। यसले तपाईंको क्रल नियमहरू व्यवस्थित राख्छ किनकि साइट बढ्दै जान्छ।

साइटम्यापले खोज इन्जिनहरूलाई तपाईंले क्रल गर्न चाहानु भएको पृष्ठहरू पत्ता लगाउन मद्दत गर्दछ। Robots.txt नियन्त्रण गर्दछ जहाँ बटहरू जान सक्छन्।

  • साइटम्यापले खोज सुधार गर्दछ
  • Robots.txt क्रलिङ पहुँच नियन्त्रण गर्दछ

धेरै वेबसाइटहरू दुबै प्रयोग गरेर लाभ उठाउँछन्।

Robots.txt सरल छ, तर यो क्षमाशील छैन। एउटा गलत नियमले कुञ्जी पृष्ठहरू ब्लक गर्न सक्छ। यो जेनेरेटरले तपाईँलाई सुरक्षित रूपमा फाइल निर्माण गर्न मद्दत गर्छ ।

पूर्वनिर्धारित पहुँच सेट गर्नुहोस्

सबै बटहरूले पूर्वनिर्धारित रूपमा तपाईंको साइट क्रल गर्न सक्दछन् कि सक्दैनन् छनौट गर्नुहोस्।

तपाईँको साइटम्याप यूआरएल थप्नुहोस्

तपाईंको साइटम्याप समावेश गर्नुहोस् ताकि क्रलरहरूले तपाईंको महत्त्वपूर्ण पृष्ठहरू छिटो फेला पार्न सक्दछन्।

अनुमति नदिइएको बाटोहरू सावधानीपूर्वक थप्नुहोस्

तपाईँले साँच्चिकै क्रल गर्न चाहनुहुन्न मात्र त्यसलाई ब्लक गर्नुहोस् । जहिले पनि अगाडि स्ल्याशबाट सुरु गर्नुहोस्, जस्तै:

/व्यवस्थापक/वा/खोजी/

प्रकाशन गर्नु अघि समीक्षा गर्नुहोस्

तपाईँले आफ्नो गृहपृष्ठ, ब्लग, श्रेणी पृष्ठहरू, वा मुख्य सेवा पृष्ठहरू ब्लक गर्नुभएको छैन भनेर दोहोरो जाँच गर्नुहोस्।

Robots.txt प्राविधिक एसईओको एक भाग हो। यी उपकरणहरूले समान लक्ष्यलाई समर्थन गर्दछ र तपाईंलाई सबै कुरा सही रूपमा काम गरिरहेको छ भनेर पुष्टि गर्न मद्दत गर्दछ:

API कागजात चाँडै आउँदैछ

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.