common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt ģenerators |
Vispārīgās direktīvas
Konfigurējiet visu rāpuļprogrammu noklusējuma darbību pirms slāņu ignorēšanas.
Iestatiet globālu atļaušanas vai bloķēšanas noteikumu lietotāja aģentam: *.
Ierobežojiet rāpuļprogrammas, ja jūsu serverim ir nepieciešama elpa.
Neobligāta resursdatora direktīva spoguļotiem domēniem.
Viens ceļš katrā rindā. Atbalsta aizstājējzīmes un slīpsvītras beigās.
Nodrošiniet, lai konkrētas mapes joprojām varētu pārmeklēt pat tad, ja ir bloķēti plašāki ceļi.
Katrā rindā norādiet vienu vietnes kartes URL. Pievienojiet papildu vietnes kartes indeksus, ja tādi ir.
Parastie rāpotāji
Pārslēdziet rāpuļprogrammas, kuras vēlaties pilnībā bloķēt. Ļaujiet tām paļauties uz iepriekš minēto noklusējuma noteikumu.
Pielāgotas kārtulas
Pievienojiet lietotāju aģentus ar pielāgotām atļaušanas vai bloķēšanas direktīvām, pārmeklēšanas aizkavējumiem un vietnes kartes padomiem.
Vēl nav pielāgotu noteikumu. Lai tos izveidotu, izmantojiet iepriekš redzamo pogu.
Precīza vai aizstājējzīmju lietotāja aģenta virkne.
Nokopējiet iepriekš ģenerēto failu un augšupielādējiet to sava domēna saknē kā robots.txt.
Satura rādītājs
Robots.txt ģenerators labākai pārmeklēšanai un indeksēšanai
Robots.txt ir neliels teksta fails, kas vada meklēšanas robotus jūsu vietnē. Tas norāda rāpuļķēdēm, kurām zonām viņi var piekļūt un no kādiem ceļiem viņiem vajadzētu izvairīties. Tādējādi pārmeklēšana tiek koncentrēta uz svarīgām lapām un tiek samazināts mazvērtīgu URL apmeklējumu skaits.
Izmantojiet robots.txt, lai bloķētu tādus apgabalus kā administratora lapas, izkārtojuma mapes, testa URL, filtrēšanas lapas un ceļu dublikātus. Kad noteikumi ir skaidri, meklētājprogrammas vairāk laika pavada svarīgajās lapās. Tas var palīdzēt ātrāk atklāt jaunu saturu un saglabāt tīru un paredzamu pārmeklēšanu.
Ko Robots.txt nozīmē SEO
Robots.txt ir daļa no robotu izslēgšanas standarta. Jūs to novietojat:
yourdomain.com/robots.txt
Meklētājprogrammas bieži pārbauda šo failu agri, jo tas sniedz skaidrus pārmeklēšanas norādījumus. Ja jūsu vietne ir maza, tā joprojām var tikt indeksēta bez robots.txt faila. Taču lielākās vietnēs vadlīniju trūkums var novest pie izšķērdētas pārmeklēšanas un lēnākas galveno lapu atklāšanas.
Viens svarīgs punkts:
- Robots.txt vadīklu pārmeklēšana
- Tas negarantē indeksēšanu
Ja vēlaties apstiprināt, ka lapa var tikt parādīta meklēšanas rezultātos, izmantojiet indeksējamības pārbaudi. Tas palīdz pamanīt tādus signālus kā noindex, bloķēti resursi vai citas problēmas, kuras robots.txt neaptver.
Kāpēc Robots.txt palīdz ar pārmeklēšanas budžetu
Meklētājprogrammas nepārmeklē katru lapu katru dienu. Tās pārmeklē, pamatojoties uz ierobežojumiem un signāliem, piemēram, vietnes ātrumu, servera stāvokli un satura izmaiņu biežumu.
Ja jūsu vietne darbojas lēni vai atgriež kļūdas, rāpuļprogrammas var apmeklēt mazāk lapu vienā izpildījumā. Tas var aizkavēt indeksēšanu jaunām ziņām un atjauninātām lapām. Robots.txt palīdz, samazinot izšķērdēto pārmeklēšanu, tāpēc roboti vairāk laika pavada lapās, uz kurām vēlaties koncentrēties.
Lai iegūtu vislabākos rezultātus, izmantojiet robots.txt ar vietnes karti:
- Robots.txt norādījumus robotiem par to, ko pārmeklēt vai izlaist
- Vietnes kartē ir uzskaitītas lapas, kuras vēlaties pārmeklēt un indeksēt
Robots.txt noteikumi, kas jums jāzina
robots.txt failā tiek izmantotas dažas vienkāršas direktīvas. Tie ir viegli lasāmi, bet jums tie ir rūpīgi jāraksta.
- Lietotāja aģents
- Iestata, uz kuru botu attiecas kārtula
- Neatļaut
- Bloķē mapes vai ceļa pārmeklēšanu
- Atļaut
- Atver noteiktu ceļu bloķētā mapē
- Pārmeklēšanas aizkave
- Pieprasa lēnāku pārmeklēšanu dažiem robotiem (ne visi roboti tam seko)
Neliela kļūda var bloķēt svarīgas lapas, tostarp galvenās kategorijas vai galvenās lapas. Tāpēc ģeneratora izmantošana ir drošāka nekā visu rakstīt manuāli.
Kāpēc WordPress vietnēm bieži ir nepieciešams Robots.txt
WordPress var izveidot daudzus URL, kas nepalīdz SEO, piemēram, iekšējās meklēšanas lapas, dažas arhīva lapas un parametru URL. Mazvērtīgu apgabalu bloķēšana palīdz rāpuļprogrammām vairāk laika pavadīt galvenajās lapās, emuāra ziņās un produktu vai pakalpojumu lapās.
Pat mazākās vietnēs tīrs robots.txt fails ir gudrs iestatījums. Tas uztur jūsu pārmeklēšanas kārtulas organizētas, kad vietne aug.
Robots.txt un vietnes kartes atšķirība
Vietnes karte palīdz meklētājprogrammām atrast lapas, kuras vēlaties pārmeklēt. Robots.txt kontrolē, kur roboti var doties.
- Vietnes karte uzlabo atklāšanu
- Robots.txt vadīklas pārmeklē piekļuvi
Lielākā daļa vietņu gūst labumu no abu izmantošanas.
Kā izveidot Robots.txt, izmantojot šo ģeneratoru
Robots.txt ir vienkārši, bet tas nav piedodošs. Viens nepareizs noteikums var bloķēt galvenās lapas. Šis ģenerators palīdz droši izveidot failu.
Noklusējuma piekļuves iestatīšana
Izvēlieties, vai visi roboti pēc noklusējuma var pārmeklēt jūsu vietni.
Vietnes kartes URL pievienošana
Iekļaujiet vietnes karti, lai rāpuļprogrammas varētu ātrāk atrast jūsu svarīgās lapas.
Uzmanīgi pievienojiet neatļautos ceļus
Bloķējiet tikai to, ko jūs patiesi nevēlaties pārmeklēt. Vienmēr sāciet ar slīpsvītru, piemēram:
/admin/ vai /search/
Pārskatīšana pirms publicēšanas
Vēlreiz pārbaudiet, vai neesat bloķējis savu mājaslapu, emuāru, kategoriju lapas vai galvenās pakalpojumu lapas.
Saistītie SEO rīki, kas labi darbojas ar Robots.txt
Robots.txt ir viena no tehniskā SEO daļām. Šie rīki atbalsta to pašu mērķi un palīdz pārbaudīt, vai viss darbojas pareizi.
- Vietnes kartes pārbaudītājs: apstiprina, ka jūsu vietnes karte ir derīga un robotiem viegli lasāma.
- Google indeksa pārbaudītājs: pārbauda, vai lapu var indeksēt, un atzīmē izplatītākos bloķētājus, piemēram, noindex.
- Pārbaudīt HTTP statusa kodu: atrod 200, 301, 404 un servera kļūdas, kas var palēnināt pārmeklēšanu.
- Bezmaksas novirzīšanas pārbaudītājs: apstiprina, ka novirzīšana ir tīra un nav iestrēgusi ķēdēs vai cilpās.
- Meta tagu analīze: pārskata nosaukumus, aprakstus un robotu meta tagus SEO kļūdām.
API dokumentācija drīzumā būs pieejama
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.