Robots.txt ജനറേറ്റർ |
പൊതു നിർദ്ദേശങ്ങൾ
ലെയറിംഗ് ഓവർറൈഡുകൾക്ക് മുമ്പ് എല്ലാ ക്രാളറുകൾക്കും ഡിഫോൾട്ട് സ്വഭാവം കോൺഫിഗർ ചെയ്യുക.
ഉപയോക്തൃ-ഏജന്റിന് ഒരു ആഗോള അനുവദിക്കൽ അല്ലെങ്കിൽ തടയൽ നിയമം സജ്ജമാക്കുക: *.
നിങ്ങളുടെ സെർവറിന് ശ്വസന സ്ഥലം ആവശ്യമുണ്ടെങ്കിൽ, ത്രോട്ടിൽ ക്രാളറുകൾ ഉപയോഗിക്കുക.
മിറർ ചെയ്ത ഡൊമെയ്നുകൾക്കുള്ള ഓപ്ഷണൽ ഹോസ്റ്റ് ഡയറക്റ്റീവ്.
ഓരോ വരിയിലും ഒരു പാത്ത്. വൈൽഡ്കാർഡുകളും ട്രെയിലിംഗ് സ്ലാഷുകളും പിന്തുണയ്ക്കുന്നു.
വിശാലമായ പാതകൾ തടഞ്ഞിരിക്കുമ്പോഴും നിർദ്ദിഷ്ട ഫോൾഡറുകൾ ക്രാൾ ചെയ്യാൻ കഴിയുന്നതാണെന്ന് ഉറപ്പാക്കുക.
ഓരോ വരിയിലും ഒരു സൈറ്റ്മാപ്പ് URL നൽകുക. കൂടുതൽ സൈറ്റ്മാപ്പ് സൂചികകൾ ഉണ്ടെങ്കിൽ അവ ചേർക്കുക.
സാധാരണ ക്രാളറുകൾ
നിങ്ങൾ പൂർണ്ണമായും തടയാൻ ആഗ്രഹിക്കുന്ന ക്രാളറുകളെ ടോഗിൾ ചെയ്യുക. മുകളിലുള്ള സ്ഥിരസ്ഥിതി നിയമത്തെ ആശ്രയിക്കാൻ അവരെ അനുവദിക്കുക.
ഇഷ്ടാനുസൃത നിയമങ്ങൾ
അനുവദനീയമായ അല്ലെങ്കിൽ തടയൽ നിർദ്ദേശങ്ങൾ, ക്രാൾ കാലതാമസങ്ങൾ, സൈറ്റ്മാപ്പ് സൂചനകൾ എന്നിവ ഉപയോഗിച്ച് ഉപയോക്തൃ-ഏജന്റുമാരെ ചേർക്കുക.
ഇതുവരെ ഇഷ്ടാനുസൃത നിയമങ്ങളൊന്നുമില്ല. മുകളിലുള്ള ബട്ടൺ ഉപയോഗിച്ച് ഒന്ന് സൃഷ്ടിക്കുക.
കൃത്യമായ അല്ലെങ്കിൽ വൈൽഡ്കാർഡ് ഉപയോക്തൃ-ഏജന്റ് സ്ട്രിംഗ്.
മുകളിൽ ജനറേറ്റ് ചെയ്ത ഫയൽ പകർത്തി robots.txt ആയി നിങ്ങളുടെ ഡൊമെയ്നിന്റെ റൂട്ടിലേക്ക് അപ്ലോഡ് ചെയ്യുക.
ഉള്ളടക്കം പട്ടിക
Robots.txt മികച്ച ഇഴയുന്നതിനും സൂചികയാക്കുന്നതിനുമുള്ള ജനറേറ്റർ
നിങ്ങളുടെ സൈറ്റിലെ തിരയൽ ബോട്ടുകളെ നയിക്കുന്ന ഒരു ചെറിയ ടെക്സ്റ്റ് ഫയലാണ് Robots.txt. ക്രാളർമാർക്ക് ഏതൊക്കെ പ്രദേശങ്ങളിലേക്ക് പ്രവേശിക്കാമെന്നും ഏതൊക്കെ വഴികൾ ഒഴിവാക്കണമെന്നും ഇത് പറയുന്നു. ഇത് പ്രാധാന്യമുള്ള പേജുകളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുകയും കുറഞ്ഞ മൂല്യമുള്ള URL-കളിൽ പാഴായ സന്ദർശനങ്ങൾ കുറയ്ക്കുകയും ചെയ്യുന്നു.
അഡ്മിൻ പേജുകൾ, സ്റ്റേജിംഗ് ഫോൾഡറുകൾ, ടെസ്റ്റ് URL-കൾ, ഫിൽട്ടർ പേജുകൾ, ഡ്യൂപ്ലിക്കേറ്റ് പാത്തുകൾ എന്നിവ പോലുള്ള പ്രദേശങ്ങൾ തടയാൻ robots.txt ഉപയോഗിക്കുക. നിങ്ങളുടെ നിയമങ്ങൾ വ്യക്തമാകുമ്പോൾ, സെർച്ച് എഞ്ചിനുകൾ നിങ്ങളുടെ പ്രധാന പേജുകളിൽ കൂടുതൽ സമയം ചെലവഴിക്കുന്നു. പുതിയ ഉള്ളടക്കം വേഗത്തിൽ കണ്ടെത്താനും വൃത്തിയുള്ളതും പ്രവചനാതീതവുമായി ഇഴയാനും ഇത് സഹായിക്കും.
SEO ൽ Robots.txt എന്താണ് അർത്ഥമാക്കുന്നത്
Robots.txt റോബോട്ടുകളുടെ ഒഴിവാക്കൽ മാനദണ്ഡത്തിന്റെ ഭാഗമാണ്. നിങ്ങൾ അത് ഇവിടെ വയ്ക്കുക:
yourdomain.com/robots.txt
സെർച്ച് എഞ്ചിനുകൾ പലപ്പോഴും ഈ ഫയൽ നേരത്തെ പരിശോധിക്കുന്നു, കാരണം ഇത് വ്യക്തമായ ഇഴയുന്ന ദിശകൾ നൽകുന്നു. നിങ്ങളുടെ സൈറ്റ് ചെറുതാണെങ്കിൽ, അത് ഇപ്പോഴും ഒരു robots.txt ഫയൽ ഇല്ലാതെ സൂചിപ്പിക്കപ്പെട്ടേക്കാം. എന്നാൽ വലിയ സൈറ്റുകളിൽ, മാർഗ്ഗനിർദ്ദേശം നഷ്ടപ്പെടുന്നത് പാഴായ ഇഴയുന്നതിനും കീ പേജുകളുടെ മന്ദഗതിയിലുള്ള കണ്ടെത്തലിലേക്കും നയിച്ചേക്കാം.
ഒരു പ്രധാന കാര്യം:
- Robots.txt ഇഴയുന്നത് നിയന്ത്രിക്കുന്നു
- ഇത് സൂചികയ്ക്ക് ഉറപ്പ് നൽകുന്നില്ല
തിരയൽ ഫലങ്ങളിൽ ഒരു പേജ് ദൃശ്യമാകുമെന്ന് സ്ഥിരീകരിക്കാൻ നിങ്ങൾ ആഗ്രഹിക്കുന്നുവെങ്കിൽ, ഒരു സൂചിക പരിശോധന ഉപയോഗിക്കുക. നോയിഡെക്സ്, ബ്ലോക്ക് ചെയ്ത റിസോഴ്സുകൾ അല്ലെങ്കിൽ robots.txt ഉൾക്കൊള്ളാത്ത മറ്റ് പ്രശ്നങ്ങൾ പോലുള്ള സിഗ്നലുകൾ കണ്ടെത്താൻ ഇത് നിങ്ങളെ സഹായിക്കുന്നു.
എന്തുകൊണ്ടാണ് Robots.txt ക്രോൾ ബജറ്റിനെ സഹായിക്കുന്നത്
സെർച്ച് എഞ്ചിനുകൾ എല്ലാ ദിവസവും എല്ലാ പേജിലും ഇഴയുന്നില്ല. സൈറ്റ് വേഗത, സെർവർ ആരോഗ്യം, നിങ്ങളുടെ ഉള്ളടക്കം എത്ര തവണ മാറുന്നു തുടങ്ങിയ പരിധികളെയും സിഗ്നലുകളെയും അടിസ്ഥാനമാക്കി അവ ഇഴയുന്നു.
നിങ്ങളുടെ സൈറ്റ് മന്ദഗതിയിലാണെങ്കിൽ അല്ലെങ്കിൽ പിശകുകൾ നൽകുന്നുവെങ്കിൽ, ക്രോളറുകൾ ഒരു റണ്ണിന് കുറച്ച് പേജുകൾ സന്ദർശിച്ചേക്കാം. ഇത് പുതിയ പോസ്റ്റുകൾക്കും അപ് ഡേറ്റ് ചെയ്ത പേജുകൾക്കുമുള്ള സൂചികപ്പെടുത്തൽ വൈകിപ്പിക്കും. പാഴായ ക്രോളുകൾ കുറയ്ക്കുന്നതിലൂടെ Robots.txt സഹായിക്കുന്നു, അതിനാൽ ബോട്ടുകൾ നിങ്ങൾ യഥാർത്ഥത്തിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കാൻ ആഗ്രഹിക്കുന്ന പേജുകളിൽ കൂടുതൽ സമയം ചെലവഴിക്കുന്നു.
മികച്ച ഫലങ്ങൾക്കായി, ഒരു സൈറ്റ്മാപ്പ് ഉപയോഗിച്ച് robots.txt ഉപയോഗിക്കുക:
- എന്താണ് ഇഴയണം അല്ലെങ്കിൽ ഒഴിവാക്കണം എന്നതിനെക്കുറിച്ച് Robots.txt ബോട്ടുകളെ നയിക്കുന്നു
- സൈറ്റ്മാപ്പ് നിങ്ങൾ ഇഴയാനും സൂചിപ്പിക്കാനും ആഗ്രഹിക്കുന്ന പേജുകൾ പട്ടികപ്പെടുത്തുന്നു
അറിഞ്ഞിരിക്കേണ്ട നിയമങ്ങൾ Robots.txt
ഒരു robots.txt ഫയൽ കുറച്ച് ലളിതമായ നിർദ്ദേശങ്ങൾ ഉപയോഗിക്കുന്നു. അവ വായിക്കാൻ എളുപ്പമാണ്, പക്ഷേ നിങ്ങൾ അവ ശ്രദ്ധാപൂർവ്വം എഴുതണം.
- ഉപയോക്തൃ-ഏജന്റ്
- ഏത് ബോട്ടിനാണ് നിയമം ബാധകമാകുന്നത് എന്ന് സജ്ജമാക്കുന്നു
- അനുവദിക്കില്ല
- ഒരു ഫോൾഡറിനോ പാത്തിനോ വേണ്ടി ഇഴയുന്ന ബ്ലോക്കുകൾ
- അനുവദിക്കുക
- തടഞ്ഞ ഫോൾഡറിനുള്ളിൽ ഒരു നിർദ്ദിഷ്ട പാത തുറക്കുന്നു
- ക്രോൾ-കാലതാമസം
- ചില ബോട്ടുകൾക്ക് സാവധാനം ഇഴയാൻ അഭ്യർത്ഥിക്കുന്നു (എല്ലാ ബോട്ടുകളും ഇത് പിന്തുടരുന്നില്ല)
ഒരു ചെറിയ തെറ്റ് പ്രധാന വിഭാഗങ്ങൾ അല്ലെങ്കിൽ കോർ ലാൻഡിംഗ് പേജുകൾ ഉൾപ്പെടെയുള്ള പ്രധാന പേജുകൾ തടയാൻ കഴിയും. അതുകൊണ്ടാണ് എല്ലാം സ്വമേധയാ എഴുതുന്നതിനേക്കാൾ ഒരു ജനറേറ്റർ ഉപയോഗിക്കുന്നത് സുരക്ഷിതമാണ്.
എന്തുകൊണ്ട് വേർഡ്പ്രസ്സ് സൈറ്റുകൾക്ക് പലപ്പോഴും Robots.txt ആവശ്യമാണ്
ആന്തരിക തിരയൽ പേജുകൾ, ചില ആർക്കൈവ് പേജുകൾ, പാരാമീറ്റർ അധിഷ്ഠിത URL കൾ എന്നിവ പോലുള്ള എസ്.ഇ.ഒയെ സഹായിക്കാത്ത നിരവധി URL-കൾ സൃഷ്ടിക്കാൻ വേർഡ്പ്രസ്സിന് കഴിയും. കുറഞ്ഞ മൂല്യമുള്ള പ്രദേശങ്ങൾ തടയുന്നത് നിങ്ങളുടെ പ്രധാന പേജുകൾ, ബ്ലോഗ് പോസ്റ്റുകൾ, ഉൽപ്പന്നം അല്ലെങ്കിൽ സേവന പേജുകൾ എന്നിവയിൽ കൂടുതൽ സമയം ചെലവഴിക്കാൻ ക്രാളർമാരെ സഹായിക്കുന്നു.
ചെറിയ സൈറ്റുകളിൽ പോലും, വൃത്തിയുള്ള robots.txt ഫയൽ ഒരു സ്മാർട്ട് സജ്ജീകരണമാണ്. സൈറ്റ് വളരുന്നതിനനുസരിച്ച് ഇത് നിങ്ങളുടെ ക്രോൾ നിയമങ്ങൾ ക്രമീകരിക്കുന്നു.
Robots.txt സൈറ്റ്മാപ്പ് വ്യത്യാസം
നിങ്ങൾ ക്രോൾ ചെയ്യാൻ ആഗ്രഹിക്കുന്ന പേജുകൾ കണ്ടെത്താൻ ഒരു സൈറ്റ്മാപ്പ് തിരയൽ എഞ്ചിനുകളെ സഹായിക്കുന്നു. ബോട്ടുകൾക്ക് എവിടെ പോകാമെന്ന് Robots.txt നിയന്ത്രിക്കുന്നു.
- സൈറ്റ്മാപ്പ് കണ്ടെത്തൽ മെച്ചപ്പെടുത്തുന്നു
- Robots.txt ക്രോളിംഗ് ആക്സസ് നിയന്ത്രിക്കുന്നു
മിക്ക വെബ് സൈറ്റുകളും ഇവ രണ്ടും ഉപയോഗിക്കുന്നതിലൂടെ പ്രയോജനം നേടുന്നു.
ഈ ജനറേറ്റർ ഉപയോഗിച്ച് Robots.txt എങ്ങനെ സൃഷ്ടിക്കാം
Robots.txt ലളിതമാണ്, പക്ഷേ അത് ക്ഷമിക്കുന്നില്ല. ഒരു തെറ്റായ നിയമത്തിന് കീ പേജുകൾ തടയാൻ കഴിയും. ഫയൽ സുരക്ഷിതമായി നിർമ്മിക്കാൻ ഈ ജനറേറ്റർ നിങ്ങളെ സഹായിക്കുന്നു.
ഡിഫോൾട്ട് ആക്സസ് ക്രമീകരിക്കുക
എല്ലാ ബോട്ടുകൾക്കും നിങ്ങളുടെ സൈറ്റ് സ്വതവേ ഇഴയാൻ കഴിയുമോ എന്ന് തിരഞ്ഞെടുക്കുക.
നിങ്ങളുടെ സൈറ്റ്മാപ്പ് URL ചേർക്കുക
നിങ്ങളുടെ സൈറ്റ്മാപ്പ് ഉൾപ്പെടുത്തുക, അതിനാൽ ക്രാളർമാർക്ക് നിങ്ങളുടെ പ്രധാന പേജുകൾ വേഗത്തിൽ കണ്ടെത്താൻ കഴിയും.
അനുവദനീയമല്ലാത്ത പാത്തുകൾ ശ്രദ്ധാപൂർവ്വം ചേർക്കുക
നിങ്ങൾ ശരിക്കും ഇഴയാൻ ആഗ്രഹിക്കാത്തത് മാത്രം തടയുക. എല്ലായ്പ്പോഴും ഒരു ഫോർവേഡ് സ്ലാഷ് ഉപയോഗിച്ച് ആരംഭിക്കുക:
/admin/ അല്ലെങ്കിൽ /search/
പ്രസിദ്ധീകരിക്കുന്നതിന് മുമ്പ് അവലോകനം ചെയ്യുക
നിങ്ങളുടെ ഹോംപേജ്, ബ്ലോഗ്, കാറ്റഗറി പേജുകൾ അല്ലെങ്കിൽ പ്രധാന സേവന പേജുകൾ നിങ്ങൾ തടഞ്ഞിട്ടില്ലെന്ന് രണ്ടുതവണ പരിശോധിക്കുക.
ബന്ധപ്പെട്ട എസ്.ഇ.ഒ ഉപകരണങ്ങൾ നന്നായി പ്രവർത്തിക്കുന്നു Robots.txt
Robots.txt സാങ്കേതിക എസ്.ഇ.ഒയുടെ ഒരു ഭാഗമാണ്. ഈ ടൂളുകൾ ഒരേ ലക്ഷ്യത്തെ പിന്തുണയ്ക്കുകയും എല്ലാം ശരിയായി പ്രവർത്തിക്കുന്നുവെന്ന് സ്ഥിരീകരിക്കാൻ സഹായിക്കുകയും ചെയ്യുന്നു:
- സൈറ്റ്മാപ്പ് ചെക്കർ: നിങ്ങളുടെ സൈറ്റ്മാപ്പ് സാധുതയുള്ളതും ബോട്ടുകൾക്ക് വായിക്കാൻ എളുപ്പവുമാണെന്ന് സ്ഥിരീകരിക്കുന്നു.
- ഗൂഗിൾ ഇൻഡെക്സ് ചെക്കർ: ഒരു പേജ് സൂചിപ്പിക്കാൻ കഴിയുമോ എന്ന് പരിശോധിക്കുകയും നോയിൻഡെക്സ് പോലുള്ള സാധാരണ ബ്ലോക്കറുകൾ ഫ്ലാഗ് ചെയ്യുകയും ചെയ്യുന്നു.
- എച്ച്ടിടിപി സ്റ്റാറ്റസ് കോഡ് പരിശോധിക്കുക: ഇഴയുന്നത് മന്ദഗതിയിലാക്കാൻ കഴിയുന്ന 200, 301, 404, സെർവർ പിശകുകൾ എന്നിവ കണ്ടെത്തുന്നു.
- സ്വതന്ത്ര റീഡയറക്ട് ചെക്കർ: റീഡയറക്ടുകൾ വൃത്തിയുള്ളതാണെന്നും ചങ്ങലകളിലോ ലൂപ്പുകളിലോ കുടുങ്ങിയിട്ടില്ലെന്ന് സ്ഥിരീകരിക്കുന്നു.
- മെറ്റാ ടാഗുകൾ വിശകലനം: ശീർഷകങ്ങൾ, വിവരണങ്ങൾ, റോബോട്ടുകൾ എന്നിവ അവലോകനം ചെയ്യുന്നു എസ്.ഇ.ഒ തെറ്റുകൾക്കുള്ള മെറ്റാ ടാഗുകൾ.
API ഡോക്യുമെന്റേഷൻ ഉടൻ വരുന്നു
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.