common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt ஜெனரேட்டர் |
பொதுவான வழிமுறைகள்
அடுக்குகளை மேலெழுதும் முன், அனைத்து கிராலர்களுக்கும் இயல்புநிலை நடத்தையை உள்ளமைக்கவும்.
பயனர் முகவருக்கு உலகளாவிய அனுமதி அல்லது தடுப்பு விதியை அமைக்கவும்: *.
உங்கள் சர்வருக்கு சுவாசிக்க இடம் தேவைப்பட்டால், த்ரோட்டில் கிராலர்களைப் பயன்படுத்துங்கள்.
பிரதிபலித்த டொமைன்களுக்கான விருப்ப ஹோஸ்ட் உத்தரவு.
ஒரு வரிக்கு ஒரு பாதை. வைல்ட்கார்டுகள் மற்றும் இறுதி சாய்வுகளை ஆதரிக்கிறது.
பரந்த பாதைகள் தடுக்கப்பட்டிருந்தாலும் கூட, குறிப்பிட்ட கோப்புறைகள் ஊர்ந்து செல்லக்கூடியதாக இருப்பதை உறுதிசெய்யவும்.
ஒரு வரிக்கு ஒரு தளவரைபட URL ஐ வழங்கவும். உங்களிடம் கூடுதல் தளவரைபட குறியீடுகள் இருந்தால் அவற்றைச் சேர்க்கவும்.
பொதுவான ஊர்ந்து செல்பவை
நீங்கள் முழுவதுமாகத் தடுக்க விரும்பும் கிராலர்களை நிலைமாற்றவும். மேலே உள்ள இயல்புநிலை விதியை அவர்கள் நம்பியிருக்க அனுமதிக்கவும்.
தனிப்பயன் விதிகள்
தனிப்பயனாக்கப்பட்ட அனுமதி அல்லது தடுப்பு வழிமுறைகள், வலைவல தாமதங்கள் மற்றும் தளவரைபட குறிப்புகளுடன் பயனர் முகவர்களைச் சேர்க்கவும்.
இன்னும் தனிப்பயன் விதிகள் எதுவும் இல்லை. மேலே உள்ள பொத்தானைப் பயன்படுத்தி ஒன்றை உருவாக்கவும்.
சரியான அல்லது வைல்டு கார்டு பயனர்-முகவர் சரம்.
மேலே உருவாக்கப்பட்ட கோப்பை நகலெடுத்து, அதை உங்கள் டொமைனின் மூலத்திற்கு robots.txt ஆக பதிவேற்றவும்.
உள்ளடக்க அட்டவணை
Robots.txt சிறந்த ஊர்ந்து செல்லுதல் மற்றும் அட்டவணைப்படுத்தலுக்கான ஜெனரேட்டர்
Robots.txt என்பது உங்கள் தளத்தில் தேடல் போட்களை வழிநடத்தும் ஒரு சிறிய உரை கோப்பு ஆகும். இது கிராலர்களை அவர்கள் எந்த பகுதிகளை அணுகலாம், எந்த பாதைகளைத் தவிர்க்க வேண்டும் என்று கூறுகிறது. இது முக்கியமான பக்கங்களில் கவனம் செலுத்துகிறது மற்றும் குறைந்த மதிப்புள்ள URL களில் வீணான வருகைகளைக் குறைக்கிறது.
நிர்வாகப் பக்கங்கள், ஸ்டேஜிங் கோப்புறைகள், சோதனை URLகள், வடிகட்டி பக்கங்கள் மற்றும் நகல் பாதைகள் போன்ற பகுதிகளைத் தடுக்க robots.txt ஐப் பயன்படுத்தவும். உங்கள் விதிகள் தெளிவாக இருக்கும்போது, தேடுபொறிகள் உங்கள் முக்கியமான பக்கங்களில் அதிக நேரம் செலவிடுகின்றன. இது புதிய உள்ளடக்கத்தை விரைவாக கண்டறியவும், சுத்தமாகவும் கணிக்கக்கூடியதாகவும் ஊர்ந்து செல்ல உதவும்.
எஸ்சிஓவில் Robots.txt என்றால் என்ன
Robots.txt ரோபோக்கள் விலக்கு தரத்தின் ஒரு பகுதியாகும். நீங்கள் அதை இங்கே வைக்கவும்:
yourdomain.com/robots.txt
தேடுபொறிகள் பெரும்பாலும் இந்த கோப்பை முன்கூட்டியே சரிபார்க்கின்றன, ஏனெனில் இது தெளிவான ஊர்ந்து செல்லும் திசைகளை வழங்குகிறது. உங்கள் தளம் சிறியதாக இருந்தால், அது இன்னும் robots.txt கோப்பு இல்லாமல் அட்டவணைப்படுத்தப்படலாம். ஆனால் பெரிய தளங்களில், வழிகாட்டுதலை தவறவிட்டது வீணான ஊர்ந்து செல்வதற்கும் முக்கிய பக்கங்களின் மெதுவான கண்டுபிடிப்புக்கும் வழிவகுக்கும்.
ஒரு முக்கியமான புள்ளி:
- Robots.txt ஊர்ந்து செல்வதை கட்டுப்படுத்துகிறது
- இது அட்டவணைப்படுத்தலுக்கு உத்தரவாதம் அளிக்காது
தேடல் முடிவுகளில் ஒரு பக்கம் தோன்றும் என்பதை உறுதிப்படுத்த விரும்பினால், குறியீட்டு சோதனையைப் பயன்படுத்தவும். நோஇன்டெக்ஸ், தடுக்கப்பட்ட வளங்கள் அல்லது robots.txt உள்ளடக்காத பிற சிக்கல்கள் போன்ற சமிக்ஞைகளைக் கண்டறிய இது உதவுகிறது.
Robots.txt ஏன் ஊர்ந்து வரவு பட்ஜெட்டுக்கு உதவுகிறது
தேடுபொறிகள் ஒவ்வொரு நாளும் ஒவ்வொரு பக்கத்தையும் ஊர்ந்து செல்வதில்லை. தள வேகம், சேவையக ஆரோக்கியம் மற்றும் உங்கள் உள்ளடக்கம் எவ்வளவு அடிக்கடி மாறுகிறது போன்ற வரம்புகள் மற்றும் சமிக்ஞைகளின் அடிப்படையில் அவை ஊர்ந்து செல்கின்றன.
உங்கள் தளம் மெதுவாக இருந்தால் அல்லது பிழைகளைத் திருப்பித் தரினால், கிராலர்கள் ஒரு ஓட்டத்திற்கு குறைவான பக்கங்களைப் பார்வையிடலாம். இது புதிய இடுகைகள் மற்றும் புதுப்பிக்கப்பட்ட பக்கங்களுக்கான குறியீட்டை தாமதப்படுத்தலாம். வீணான ஊர்ந்து செல்வதைக் குறைப்பதன் மூலம் Robots.txt உதவுகிறது, எனவே போட்கள் நீங்கள் உண்மையில் கவனம் செலுத்த விரும்பும் பக்கங்களில் அதிக நேரம் செலவிடுகின்றன.
சிறந்த முடிவுகளுக்கு, தள வரைபடத்துடன் robots.txt பயன்படுத்தவும்:
- Robots.txt எதை ஊர்ந்து செல்ல வேண்டும் அல்லது தவிர்க்க வேண்டும் என்பதற்கான போட்களுக்கு வழிகாட்டுகிறது
- தள வரைபடம் நீங்கள் ஊர்ந்து செல்ல விரும்பும் பக்கங்களை பட்டியலிடுகிறது
நீங்கள் தெரிந்து கொள்ள வேண்டிய விதிகள் Robots.txt
ஒரு robots.txt கோப்பு சில எளிய வழிகாட்டுதல்களைப் பயன்படுத்துகிறது. அவை படிக்க எளிதானவை, ஆனால் நீங்கள் அவற்றை கவனமாக எழுத வேண்டும்.
- பயனர் முகவர்
- விதி எந்த போட்டுக்கு பொருந்தும் என்பதை அமைக்கிறது
- அனுமதிக்க வேண்டாம்
- ஒரு கோப்புறை அல்லது பாதைக்கு ஊர்ந்து செல்வதைத் தடுக்கிறது
- அனுமதி
- தடுக்கப்பட்ட கோப்புறையின் உள்ளே ஒரு குறிப்பிட்ட பாதையைத் திறக்கிறது
- ஊர்ந்து செல்லும் தாமதம்
- சில போட்களுக்கு மெதுவாக ஊர்ந்து செல்வதைக் கோருகிறது (எல்லா போட்களும் அதைப் பின்பற்றுவதில்லை)
ஒரு சிறிய தவறு முக்கிய வகைகள் அல்லது முக்கிய இறங்கும் பக்கங்கள் உள்ளிட்ட முக்கியமான பக்கங்களைத் தடுக்கலாம். அதனால்தான் எல்லாவற்றையும் கைமுறையாக எழுதுவதை விட ஜெனரேட்டரைப் பயன்படுத்துவது பாதுகாப்பானது.
ஏன் வேர்ட்பிரஸ் தளங்கள் பெரும்பாலும் தேவை Robots.txt
உள் தேடல் பக்கங்கள், சில காப்பகப் பக்கங்கள் மற்றும் அளவுரு அடிப்படையிலான URL கள் போன்ற எஸ்சிஓவுக்கு உதவாத பல URL களை வேர்ட்பிரஸ் உருவாக்க முடியும். குறைந்த மதிப்புள்ள பகுதிகளைத் தடுப்பது, கிராலர்கள் உங்கள் பிரதான பக்கங்கள், வலைப்பதிவு இடுகைகள் மற்றும் தயாரிப்பு அல்லது சேவைப் பக்கங்களில் அதிக நேரம் செலவிட உதவுகிறது.
சிறிய தளங்களில் கூட, சுத்தமான robots.txt கோப்பு ஒரு ஸ்மார்ட் அமைப்பாகும். தளம் வளரும்போது இது உங்கள் கிரால் விதிகளை ஒழுங்கமைக்கிறது.
Robots.txt மற்றும் தள வரைபட வேறுபாடு
நீங்கள் ஊர்ந்து செல்ல விரும்பும் பக்கங்களைக் கண்டறிய தேடுபொறிகளுக்கு தள வரைபடம் உதவுகிறது. போட்கள் எங்கு செல்லலாம் என்பதை Robots.txt கட்டுப்படுத்துகிறது.
- தள வரைபடம் கண்டுபிடிப்பை மேம்படுத்துகிறது
- Robots.txt ஊர்ந்து செல்லும் அணுகலைக் கட்டுப்படுத்துகிறது
பெரும்பாலான வலைத்தளங்கள் இரண்டையும் பயன்படுத்துவதன் மூலம் பயனடைகின்றன.
இந்த ஜெனரேட்டரைப் பயன்படுத்தி Robots.txt உருவாக்குவது எப்படி
Robots.txt எளிமையானது, ஆனால் அது மன்னிப்பது அல்ல. ஒரு தவறான விதி முக்கிய பக்கங்களைத் தடுக்கலாம். இந்த ஜெனரேட்டர் கோப்பை பாதுகாப்பாக உருவாக்க உதவுகிறது.
இயல்புநிலை அணுகலை அமைக்கவும்
எல்லா போட்களும் உங்கள் தளத்தை இயல்பாக வலம் செல்ல முடியுமா என்பதைத் தேர்வுசெய்க.
உங்கள் தள வரைபட URL ஐச் சேர்க்கவும்
உங்கள் தள வரைபடத்தைச் சேர்க்கவும், இதனால் கிராலர்கள் உங்கள் முக்கியமான பக்கங்களை விரைவாகக் கண்டறிய முடியும்.
அனுமதிக்கப்படாத பாதைகளை கவனமாகச் சேர்க்கவும்
நீங்கள் உண்மையிலேயே ஊர்ந்து செல்ல விரும்பாததை மட்டுமே தடுக்கவும். எப்போதும் முன்னோக்கி வெட்டலுடன் தொடங்கவும்:
/admin/ அல்லது /search/
வெளியிடுவதற்கு முன் மதிப்பாய்வு செய்யவும்
உங்கள் முகப்புப் பக்கம், வலைப்பதிவு, வகை பக்கங்கள் அல்லது முதன்மை சேவைப் பக்கங்களைத் தடுக்கவில்லையா என்பதை இருமுறை சரிபார்க்கவும்.
தொடர்புடைய எஸ்சிஓ கருவிகள் Robots.txt நன்றாக வேலை செய்கின்றன
Robots.txt தொழில்நுட்ப எஸ்சிஓவின் ஒரு பகுதியாகும். இந்த கருவிகள் ஒரே இலக்கை ஆதரிக்கின்றன மற்றும் எல்லாம் சரியாக வேலை செய்கிறது என்பதை உறுதிப்படுத்த உதவுகின்றன:
- தள வரைபட சரிபார்ப்பு: உங்கள் தள வரைபடம் செல்லுபடியாகும் மற்றும் போட்கள் படிக்க எளிதானது என்பதை உறுதிப்படுத்துகிறது.
- Google குறியீட்டு சரிபார்ப்பு: ஒரு பக்கத்தை அட்டவணைப்படுத்த முடியுமா என்பதைச் சரிபார்க்கிறது மற்றும் noindex போன்ற பொதுவான தடுப்பான்களைக் கொடியிடுகிறது.
- HTTP நிலைக் குறியீட்டைச் சரிபார்க்கவும்: 200, 301, 404 மற்றும் ஊர்ந்து செல்வதை மெதுவாக்கக்கூடிய சேவையக பிழைகளைக் கண்டறியிறது.
- இலவச வழிமாற்று சரிபார்ப்பு: வழிமாற்றுகள் சுத்தமானவை மற்றும் சங்கிலிகள் அல்லது சுழல்களில் சிக்கவில்லை என்பதை உறுதிப்படுத்துகிறது.
- மெட்டா குறிச்சொற்கள் பகுப்பாய்வு: எஸ்சிஓ தவறுகளுக்கான தலைப்புகள், விளக்கங்கள் மற்றும் ரோபோக்கள் மெட்டா குறிச்சொற்களை மதிப்பாய்வு செய்கிறது.
API ஆவணம் விரைவில் வருகிறது
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.