വികസനത്തിൽ

Robots.txt ജനറേറ്റർ |

പരസ്യം

പൊതു നിർദ്ദേശങ്ങൾ

ലെയറിംഗ് ഓവർറൈഡുകൾക്ക് മുമ്പ് എല്ലാ ക്രാളറുകൾക്കും ഡിഫോൾട്ട് സ്വഭാവം കോൺഫിഗർ ചെയ്യുക.

ഉപയോക്തൃ-ഏജന്റിന് ഒരു ആഗോള അനുവദിക്കൽ അല്ലെങ്കിൽ തടയൽ നിയമം സജ്ജമാക്കുക: *.

നിങ്ങളുടെ സെർവറിന് ശ്വസന സ്ഥലം ആവശ്യമുണ്ടെങ്കിൽ, ത്രോട്ടിൽ ക്രാളറുകൾ ഉപയോഗിക്കുക.

മിറർ ചെയ്ത ഡൊമെയ്‌നുകൾക്കുള്ള ഓപ്‌ഷണൽ ഹോസ്റ്റ് ഡയറക്റ്റീവ്.

ഓരോ വരിയിലും ഒരു പാത്ത്. വൈൽഡ്കാർഡുകളും ട്രെയിലിംഗ് സ്ലാഷുകളും പിന്തുണയ്ക്കുന്നു.

വിശാലമായ പാതകൾ തടഞ്ഞിരിക്കുമ്പോഴും നിർദ്ദിഷ്ട ഫോൾഡറുകൾ ക്രാൾ ചെയ്യാൻ കഴിയുന്നതാണെന്ന് ഉറപ്പാക്കുക.

ഓരോ വരിയിലും ഒരു സൈറ്റ്‌മാപ്പ് URL നൽകുക. കൂടുതൽ സൈറ്റ്‌മാപ്പ് സൂചികകൾ ഉണ്ടെങ്കിൽ അവ ചേർക്കുക.

സാധാരണ ക്രാളറുകൾ

നിങ്ങൾ പൂർണ്ണമായും തടയാൻ ആഗ്രഹിക്കുന്ന ക്രാളറുകളെ ടോഗിൾ ചെയ്യുക. മുകളിലുള്ള സ്ഥിരസ്ഥിതി നിയമത്തെ ആശ്രയിക്കാൻ അവരെ അനുവദിക്കുക.

ഇഷ്ടാനുസൃത നിയമങ്ങൾ

അനുവദനീയമായ അല്ലെങ്കിൽ തടയൽ നിർദ്ദേശങ്ങൾ, ക്രാൾ കാലതാമസങ്ങൾ, സൈറ്റ്മാപ്പ് സൂചനകൾ എന്നിവ ഉപയോഗിച്ച് ഉപയോക്തൃ-ഏജന്റുമാരെ ചേർക്കുക.

മുകളിൽ ജനറേറ്റ് ചെയ്‌ത ഫയൽ പകർത്തി robots.txt ആയി നിങ്ങളുടെ ഡൊമെയ്‌നിന്റെ റൂട്ടിലേക്ക് അപ്‌ലോഡ് ചെയ്യുക.

സെർച്ച് എഞ്ചിൻ ക്രോൾ ചെയ്യുന്ന സ്വഭാവം നിയന്ത്രിക്കാൻ robots.txt ഫയലുകൾ സൃഷ്ടിക്കുക.
പരസ്യം

ഉള്ളടക്കം പട്ടിക

നിങ്ങളുടെ സൈറ്റിലെ തിരയൽ ബോട്ടുകളെ നയിക്കുന്ന ഒരു ചെറിയ ടെക്സ്റ്റ് ഫയലാണ് Robots.txt. ക്രാളർമാർക്ക് ഏതൊക്കെ പ്രദേശങ്ങളിലേക്ക് പ്രവേശിക്കാമെന്നും ഏതൊക്കെ വഴികൾ ഒഴിവാക്കണമെന്നും ഇത് പറയുന്നു. ഇത് പ്രാധാന്യമുള്ള പേജുകളിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കുകയും കുറഞ്ഞ മൂല്യമുള്ള URL-കളിൽ പാഴായ സന്ദർശനങ്ങൾ കുറയ്ക്കുകയും ചെയ്യുന്നു.

അഡ്മിൻ പേജുകൾ, സ്റ്റേജിംഗ് ഫോൾഡറുകൾ, ടെസ്റ്റ് URL-കൾ, ഫിൽട്ടർ പേജുകൾ, ഡ്യൂപ്ലിക്കേറ്റ് പാത്തുകൾ എന്നിവ പോലുള്ള പ്രദേശങ്ങൾ തടയാൻ robots.txt ഉപയോഗിക്കുക. നിങ്ങളുടെ നിയമങ്ങൾ വ്യക്തമാകുമ്പോൾ, സെർച്ച് എഞ്ചിനുകൾ നിങ്ങളുടെ പ്രധാന പേജുകളിൽ കൂടുതൽ സമയം ചെലവഴിക്കുന്നു. പുതിയ ഉള്ളടക്കം വേഗത്തിൽ കണ്ടെത്താനും വൃത്തിയുള്ളതും പ്രവചനാതീതവുമായി ഇഴയാനും ഇത് സഹായിക്കും.

Robots.txt റോബോട്ടുകളുടെ ഒഴിവാക്കൽ മാനദണ്ഡത്തിന്റെ ഭാഗമാണ്. നിങ്ങൾ അത് ഇവിടെ വയ്ക്കുക:

yourdomain.com/robots.txt

സെർച്ച് എഞ്ചിനുകൾ പലപ്പോഴും ഈ ഫയൽ നേരത്തെ പരിശോധിക്കുന്നു, കാരണം ഇത് വ്യക്തമായ ഇഴയുന്ന ദിശകൾ നൽകുന്നു. നിങ്ങളുടെ സൈറ്റ് ചെറുതാണെങ്കിൽ, അത് ഇപ്പോഴും ഒരു robots.txt ഫയൽ ഇല്ലാതെ സൂചിപ്പിക്കപ്പെട്ടേക്കാം. എന്നാൽ വലിയ സൈറ്റുകളിൽ, മാർഗ്ഗനിർദ്ദേശം നഷ്ടപ്പെടുന്നത് പാഴായ ഇഴയുന്നതിനും കീ പേജുകളുടെ മന്ദഗതിയിലുള്ള കണ്ടെത്തലിലേക്കും നയിച്ചേക്കാം.

ഒരു പ്രധാന കാര്യം:

  • Robots.txt ഇഴയുന്നത് നിയന്ത്രിക്കുന്നു
  • ഇത് സൂചികയ്ക്ക് ഉറപ്പ് നൽകുന്നില്ല

തിരയൽ ഫലങ്ങളിൽ ഒരു പേജ് ദൃശ്യമാകുമെന്ന് സ്ഥിരീകരിക്കാൻ നിങ്ങൾ ആഗ്രഹിക്കുന്നുവെങ്കിൽ, ഒരു സൂചിക പരിശോധന ഉപയോഗിക്കുക. നോയിഡെക്സ്, ബ്ലോക്ക് ചെയ്ത റിസോഴ്സുകൾ അല്ലെങ്കിൽ robots.txt ഉൾക്കൊള്ളാത്ത മറ്റ് പ്രശ്നങ്ങൾ പോലുള്ള സിഗ്നലുകൾ കണ്ടെത്താൻ ഇത് നിങ്ങളെ സഹായിക്കുന്നു.

സെർച്ച് എഞ്ചിനുകൾ എല്ലാ ദിവസവും എല്ലാ പേജിലും ഇഴയുന്നില്ല. സൈറ്റ് വേഗത, സെർവർ ആരോഗ്യം, നിങ്ങളുടെ ഉള്ളടക്കം എത്ര തവണ മാറുന്നു തുടങ്ങിയ പരിധികളെയും സിഗ്നലുകളെയും അടിസ്ഥാനമാക്കി അവ ഇഴയുന്നു.

നിങ്ങളുടെ സൈറ്റ് മന്ദഗതിയിലാണെങ്കിൽ അല്ലെങ്കിൽ പിശകുകൾ നൽകുന്നുവെങ്കിൽ, ക്രോളറുകൾ ഒരു റണ്ണിന് കുറച്ച് പേജുകൾ സന്ദർശിച്ചേക്കാം. ഇത് പുതിയ പോസ്റ്റുകൾക്കും അപ് ഡേറ്റ് ചെയ്ത പേജുകൾക്കുമുള്ള സൂചികപ്പെടുത്തൽ വൈകിപ്പിക്കും. പാഴായ ക്രോളുകൾ കുറയ്ക്കുന്നതിലൂടെ Robots.txt സഹായിക്കുന്നു, അതിനാൽ ബോട്ടുകൾ നിങ്ങൾ യഥാർത്ഥത്തിൽ ശ്രദ്ധ കേന്ദ്രീകരിക്കാൻ ആഗ്രഹിക്കുന്ന പേജുകളിൽ കൂടുതൽ സമയം ചെലവഴിക്കുന്നു.

മികച്ച ഫലങ്ങൾക്കായി, ഒരു സൈറ്റ്മാപ്പ് ഉപയോഗിച്ച് robots.txt ഉപയോഗിക്കുക:

  • എന്താണ് ഇഴയണം അല്ലെങ്കിൽ ഒഴിവാക്കണം എന്നതിനെക്കുറിച്ച് Robots.txt ബോട്ടുകളെ നയിക്കുന്നു
  • സൈറ്റ്മാപ്പ് നിങ്ങൾ ഇഴയാനും സൂചിപ്പിക്കാനും ആഗ്രഹിക്കുന്ന പേജുകൾ പട്ടികപ്പെടുത്തുന്നു

ഒരു robots.txt ഫയൽ കുറച്ച് ലളിതമായ നിർദ്ദേശങ്ങൾ ഉപയോഗിക്കുന്നു. അവ വായിക്കാൻ എളുപ്പമാണ്, പക്ഷേ നിങ്ങൾ അവ ശ്രദ്ധാപൂർവ്വം എഴുതണം.

  • ഉപയോക്തൃ-ഏജന്റ്
  • ഏത് ബോട്ടിനാണ് നിയമം ബാധകമാകുന്നത് എന്ന് സജ്ജമാക്കുന്നു
  • അനുവദിക്കില്ല
  • ഒരു ഫോൾഡറിനോ പാത്തിനോ വേണ്ടി ഇഴയുന്ന ബ്ലോക്കുകൾ
  • അനുവദിക്കുക
  • തടഞ്ഞ ഫോൾഡറിനുള്ളിൽ ഒരു നിർദ്ദിഷ്ട പാത തുറക്കുന്നു
  • ക്രോൾ-കാലതാമസം
  • ചില ബോട്ടുകൾക്ക് സാവധാനം ഇഴയാൻ അഭ്യർത്ഥിക്കുന്നു (എല്ലാ ബോട്ടുകളും ഇത് പിന്തുടരുന്നില്ല)

ഒരു ചെറിയ തെറ്റ് പ്രധാന വിഭാഗങ്ങൾ അല്ലെങ്കിൽ കോർ ലാൻഡിംഗ് പേജുകൾ ഉൾപ്പെടെയുള്ള പ്രധാന പേജുകൾ തടയാൻ കഴിയും. അതുകൊണ്ടാണ് എല്ലാം സ്വമേധയാ എഴുതുന്നതിനേക്കാൾ ഒരു ജനറേറ്റർ ഉപയോഗിക്കുന്നത് സുരക്ഷിതമാണ്.

ആന്തരിക തിരയൽ പേജുകൾ, ചില ആർക്കൈവ് പേജുകൾ, പാരാമീറ്റർ അധിഷ്ഠിത URL കൾ എന്നിവ പോലുള്ള എസ്.ഇ.ഒയെ സഹായിക്കാത്ത നിരവധി URL-കൾ സൃഷ്ടിക്കാൻ വേർഡ്പ്രസ്സിന് കഴിയും. കുറഞ്ഞ മൂല്യമുള്ള പ്രദേശങ്ങൾ തടയുന്നത് നിങ്ങളുടെ പ്രധാന പേജുകൾ, ബ്ലോഗ് പോസ്റ്റുകൾ, ഉൽപ്പന്നം അല്ലെങ്കിൽ സേവന പേജുകൾ എന്നിവയിൽ കൂടുതൽ സമയം ചെലവഴിക്കാൻ ക്രാളർമാരെ സഹായിക്കുന്നു.

ചെറിയ സൈറ്റുകളിൽ പോലും, വൃത്തിയുള്ള robots.txt ഫയൽ ഒരു സ്മാർട്ട് സജ്ജീകരണമാണ്. സൈറ്റ് വളരുന്നതിനനുസരിച്ച് ഇത് നിങ്ങളുടെ ക്രോൾ നിയമങ്ങൾ ക്രമീകരിക്കുന്നു.

നിങ്ങൾ ക്രോൾ ചെയ്യാൻ ആഗ്രഹിക്കുന്ന പേജുകൾ കണ്ടെത്താൻ ഒരു സൈറ്റ്മാപ്പ് തിരയൽ എഞ്ചിനുകളെ സഹായിക്കുന്നു. ബോട്ടുകൾക്ക് എവിടെ പോകാമെന്ന് Robots.txt നിയന്ത്രിക്കുന്നു.

  • സൈറ്റ്മാപ്പ് കണ്ടെത്തൽ മെച്ചപ്പെടുത്തുന്നു
  • Robots.txt ക്രോളിംഗ് ആക്സസ് നിയന്ത്രിക്കുന്നു

മിക്ക വെബ് സൈറ്റുകളും ഇവ രണ്ടും ഉപയോഗിക്കുന്നതിലൂടെ പ്രയോജനം നേടുന്നു.

Robots.txt ലളിതമാണ്, പക്ഷേ അത് ക്ഷമിക്കുന്നില്ല. ഒരു തെറ്റായ നിയമത്തിന് കീ പേജുകൾ തടയാൻ കഴിയും. ഫയൽ സുരക്ഷിതമായി നിർമ്മിക്കാൻ ഈ ജനറേറ്റർ നിങ്ങളെ സഹായിക്കുന്നു.

ഡിഫോൾട്ട് ആക്സസ് ക്രമീകരിക്കുക

എല്ലാ ബോട്ടുകൾക്കും നിങ്ങളുടെ സൈറ്റ് സ്വതവേ ഇഴയാൻ കഴിയുമോ എന്ന് തിരഞ്ഞെടുക്കുക.

നിങ്ങളുടെ സൈറ്റ്മാപ്പ് URL ചേർക്കുക

നിങ്ങളുടെ സൈറ്റ്മാപ്പ് ഉൾപ്പെടുത്തുക, അതിനാൽ ക്രാളർമാർക്ക് നിങ്ങളുടെ പ്രധാന പേജുകൾ വേഗത്തിൽ കണ്ടെത്താൻ കഴിയും.

അനുവദനീയമല്ലാത്ത പാത്തുകൾ ശ്രദ്ധാപൂർവ്വം ചേർക്കുക

നിങ്ങൾ ശരിക്കും ഇഴയാൻ ആഗ്രഹിക്കാത്തത് മാത്രം തടയുക. എല്ലായ്പ്പോഴും ഒരു ഫോർവേഡ് സ്ലാഷ് ഉപയോഗിച്ച് ആരംഭിക്കുക:

/admin/ അല്ലെങ്കിൽ /search/

പ്രസിദ്ധീകരിക്കുന്നതിന് മുമ്പ് അവലോകനം ചെയ്യുക

നിങ്ങളുടെ ഹോംപേജ്, ബ്ലോഗ്, കാറ്റഗറി പേജുകൾ അല്ലെങ്കിൽ പ്രധാന സേവന പേജുകൾ നിങ്ങൾ തടഞ്ഞിട്ടില്ലെന്ന് രണ്ടുതവണ പരിശോധിക്കുക.

Robots.txt സാങ്കേതിക എസ്.ഇ.ഒയുടെ ഒരു ഭാഗമാണ്. ഈ ടൂളുകൾ ഒരേ ലക്ഷ്യത്തെ പിന്തുണയ്ക്കുകയും എല്ലാം ശരിയായി പ്രവർത്തിക്കുന്നുവെന്ന് സ്ഥിരീകരിക്കാൻ സഹായിക്കുകയും ചെയ്യുന്നു:

API ഡോക്യുമെന്റേഷൻ ഉടൻ വരുന്നു

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.