Izstrādes procesā

Robots.txt ģenerators |

Reklāma

Vispārīgās direktīvas

Konfigurējiet visu rāpuļprogrammu noklusējuma darbību pirms slāņu ignorēšanas.

Iestatiet globālu atļaušanas vai bloķēšanas noteikumu lietotāja aģentam: *.

Ierobežojiet rāpuļprogrammas, ja jūsu serverim ir nepieciešama elpa.

Neobligāta resursdatora direktīva spoguļotiem domēniem.

Viens ceļš katrā rindā. Atbalsta aizstājējzīmes un slīpsvītras beigās.

Nodrošiniet, lai konkrētas mapes joprojām varētu pārmeklēt pat tad, ja ir bloķēti plašāki ceļi.

Katrā rindā norādiet vienu vietnes kartes URL. Pievienojiet papildu vietnes kartes indeksus, ja tādi ir.

Parastie rāpotāji

Pārslēdziet rāpuļprogrammas, kuras vēlaties pilnībā bloķēt. Ļaujiet tām paļauties uz iepriekš minēto noklusējuma noteikumu.

Pielāgotas kārtulas

Pievienojiet lietotāju aģentus ar pielāgotām atļaušanas vai bloķēšanas direktīvām, pārmeklēšanas aizkavējumiem un vietnes kartes padomiem.

Nokopējiet iepriekš ģenerēto failu un augšupielādējiet to sava domēna saknē kā robots.txt.

Ģenerējiet robots.txt failus, lai kontrolētu meklētājprogrammas rāpuļprogrammas darbību.
Reklāma

Satura rādītājs

Robots.txt ir neliels teksta fails, kas vada meklēšanas robotus jūsu vietnē. Tas norāda rāpuļķēdēm, kurām zonām viņi var piekļūt un no kādiem ceļiem viņiem vajadzētu izvairīties. Tādējādi pārmeklēšana tiek koncentrēta uz svarīgām lapām un tiek samazināts mazvērtīgu URL apmeklējumu skaits.

Izmantojiet robots.txt, lai bloķētu tādus apgabalus kā administratora lapas, izkārtojuma mapes, testa URL, filtrēšanas lapas un ceļu dublikātus. Kad noteikumi ir skaidri, meklētājprogrammas vairāk laika pavada svarīgajās lapās. Tas var palīdzēt ātrāk atklāt jaunu saturu un saglabāt tīru un paredzamu pārmeklēšanu.

Robots.txt ir daļa no robotu izslēgšanas standarta. Jūs to novietojat:

yourdomain.com/robots.txt

Meklētājprogrammas bieži pārbauda šo failu agri, jo tas sniedz skaidrus pārmeklēšanas norādījumus. Ja jūsu vietne ir maza, tā joprojām var tikt indeksēta bez robots.txt faila. Taču lielākās vietnēs vadlīniju trūkums var novest pie izšķērdētas pārmeklēšanas un lēnākas galveno lapu atklāšanas.

Viens svarīgs punkts:

  • Robots.txt vadīklu pārmeklēšana
  • Tas negarantē indeksēšanu

Ja vēlaties apstiprināt, ka lapa var tikt parādīta meklēšanas rezultātos, izmantojiet indeksējamības pārbaudi. Tas palīdz pamanīt tādus signālus kā noindex, bloķēti resursi vai citas problēmas, kuras robots.txt neaptver.

Meklētājprogrammas nepārmeklē katru lapu katru dienu. Tās pārmeklē, pamatojoties uz ierobežojumiem un signāliem, piemēram, vietnes ātrumu, servera stāvokli un satura izmaiņu biežumu.

Ja jūsu vietne darbojas lēni vai atgriež kļūdas, rāpuļprogrammas var apmeklēt mazāk lapu vienā izpildījumā. Tas var aizkavēt indeksēšanu jaunām ziņām un atjauninātām lapām. Robots.txt palīdz, samazinot izšķērdēto pārmeklēšanu, tāpēc roboti vairāk laika pavada lapās, uz kurām vēlaties koncentrēties.

Lai iegūtu vislabākos rezultātus, izmantojiet robots.txt ar vietnes karti:

  • Robots.txt norādījumus robotiem par to, ko pārmeklēt vai izlaist
  • Vietnes kartē ir uzskaitītas lapas, kuras vēlaties pārmeklēt un indeksēt

robots.txt failā tiek izmantotas dažas vienkāršas direktīvas. Tie ir viegli lasāmi, bet jums tie ir rūpīgi jāraksta.

  • Lietotāja aģents
  • Iestata, uz kuru botu attiecas kārtula
  • Neatļaut
  • Bloķē mapes vai ceļa pārmeklēšanu
  • Atļaut
  • Atver noteiktu ceļu bloķētā mapē
  • Pārmeklēšanas aizkave
  • Pieprasa lēnāku pārmeklēšanu dažiem robotiem (ne visi roboti tam seko)

Neliela kļūda var bloķēt svarīgas lapas, tostarp galvenās kategorijas vai galvenās lapas. Tāpēc ģeneratora izmantošana ir drošāka nekā visu rakstīt manuāli.

WordPress var izveidot daudzus URL, kas nepalīdz SEO, piemēram, iekšējās meklēšanas lapas, dažas arhīva lapas un parametru URL. Mazvērtīgu apgabalu bloķēšana palīdz rāpuļprogrammām vairāk laika pavadīt galvenajās lapās, emuāra ziņās un produktu vai pakalpojumu lapās.

Pat mazākās vietnēs tīrs robots.txt fails ir gudrs iestatījums. Tas uztur jūsu pārmeklēšanas kārtulas organizētas, kad vietne aug.

Vietnes karte palīdz meklētājprogrammām atrast lapas, kuras vēlaties pārmeklēt. Robots.txt kontrolē, kur roboti var doties.

  • Vietnes karte uzlabo atklāšanu
  • Robots.txt vadīklas pārmeklē piekļuvi

Lielākā daļa vietņu gūst labumu no abu izmantošanas.

Robots.txt ir vienkārši, bet tas nav piedodošs. Viens nepareizs noteikums var bloķēt galvenās lapas. Šis ģenerators palīdz droši izveidot failu.

Noklusējuma piekļuves iestatīšana

Izvēlieties, vai visi roboti pēc noklusējuma var pārmeklēt jūsu vietni.

Vietnes kartes URL pievienošana

Iekļaujiet vietnes karti, lai rāpuļprogrammas varētu ātrāk atrast jūsu svarīgās lapas.

Uzmanīgi pievienojiet neatļautos ceļus

Bloķējiet tikai to, ko jūs patiesi nevēlaties pārmeklēt. Vienmēr sāciet ar slīpsvītru, piemēram:

/admin/ vai /search/

Pārskatīšana pirms publicēšanas

Vēlreiz pārbaudiet, vai neesat bloķējis savu mājaslapu, emuāru, kategoriju lapas vai galvenās pakalpojumu lapas.

Robots.txt ir viena no tehniskā SEO daļām. Šie rīki atbalsta to pašu mērķi un palīdz pārbaudīt, vai viss darbojas pareizi.

API dokumentācija drīzumā būs pieejama

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.