Arenduses

Robots.txt generaator |

Reklaam

Üldised direktiivid

Enne kihtide tühistamist konfigureerige kõigi robotite vaikekäitumine.

Määrake kasutajaagendile globaalne lubamis- või blokeerimisreegel: *.

Kui teie server vajab hingamisruumi, piirake roomajaid.

Peegeldatud domeenide jaoks valikuline hosti direktiiv.

Üks tee rea kohta. Toetab metamärke ja kaldkriipse.

Veenduge, et teatud kaustad jääksid indekseeritavaks isegi siis, kui laiemad teed on blokeeritud.

Esitage iga rea ​​kohta üks saidikaardi URL. Lisage täiendavaid saidikaardi indekseid, kui teil neid on.

Harilikud roomajad

Lülitage sisse robotid, mille soovite täielikult blokeerida. Jätke need ülaltoodud vaikereeglile toetuma.

Kohandatud reeglid

Lisage kasutajaagendid kohandatud lubamis- või blokeerimisdirektiivide, indekseerimise viivituste ja saidikaardi vihjetega.

Kopeeri ülalpool genereeritud fail ja laadi see üles oma domeeni juurkataloogi nimega robots.txt.

Otsingumootori roomamiskäitumise juhtimiseks genereerige faile robots.txt.
Table of Contents

Robots.txt on väike tekstifail, mis juhib otsinguroboteid sinu saidil. See ütleb roomajatele, millistesse aladesse nad pääsevad ja milliseid teid vältida. See hoiab indekseerimist, keskendudes olulistele lehtedele ja vähendab raisatud külastusi madala väärtusega URL-idel.

Kasuta robots.txt, et blokeerida alasid nagu administraatorilehed, staadikaustad, test-URL-id, filtrilehed ja duplikaatteed. Kui reeglid on selged, veedavad otsingumootorid rohkem aega teie olulistele lehtedele. See aitab uut sisu kiiremini avastada ja püsida puhtana ning etteaimatavana.

Robots.txt on osa robotite välistamisstandardist. Sa paigutad selle aadressile:

yourdomain.com/robots.txt

Otsingumootorid kontrollivad seda faili sageli varakult, sest see annab neile selged roomamisjuhised. Kui su sait on väike, võib see ikkagi indekseerida ilma robots.txt failita. Kuid suurematel saitidel võib juhiste puudumine viia raisatud indekseerimiseni ja võtmelehtede aeglasema avastamiseni.

Üks oluline punkt:

  • Robots.txt kontrollib roomamist
  • See ei garanteeri indekseerimist

Kui soovid veenduda, et leht võib otsingutulemustes ilmuda, kasuta indekseeritavuse kontrolli. See aitab märgata signaale nagu noindex, blokeeritud ressursid või muud probleemid, mida robots.txt ei kata.

Otsingumootorid ei indekseeri iga lehte iga päev. Nad indekseerivad vastavalt piirangutele ja signaalidele, nagu saidi kiirus, serveri tervis ja kui tihti sinu sisu muutub.

Kui teie sait on aeglane või tagastab vigu, võivad roomajad külastada vähem lehti ühe jooksu jooksul. See võib viivitada uute postituste ja uuendatud lehtede indekseerimist. Robots.txt aitab vähendada raisatud indekse, nii et botid veedavad rohkem aega lehtedel, millele sa tegelikult tahad, et nad keskenduksid.

Parimate tulemuste saavutamiseks kasuta robots.txt koos saidikaardiga:

  • Robots.txt juhendab roboteid, mida roomata või vahele jätta
  • Saidmap loetleb lehed, mida soovid indekseerida ja indekseerida

robots.txt fail kasutab mõningaid lihtsaid juhiseid. Neid on lihtne lugeda, kuid neid tuleb hoolikalt kirjutada.

  • Kasutaja-agent
  • Määrab, millisele botile reegel kehtib
  • Keela
  • Plokid, mis otsivad kausta või teed
  • Luba
  • Avab kindla tee blokeeritud kaustas
  • Roomamisviivitus
  • Mõne roboti puhul on taotlused aeglasemalt roomatud (mitte kõik botid ei järgi seda)

Väike viga võib blokeerida olulisi lehti, sealhulgas võtmekategooriaid või põhilisi maandumislehti. Seetõttu on generaatori kasutamine turvalisem kui kõik käsitsi kirjutamine.

WordPress suudab luua palju URL-e, mis SEO-le ei aita, näiteks sisemised otsingulehed, mõned arhiivilehed ja parameetripõhised URL-id. Madala väärtusega alade blokeerimine aitab indekseerijatel veeta rohkem aega teie põhilehtedel, blogipostitustel ning toote- või teenuselehtedel.

Isegi väiksematel saitidel on puhas robots.txt fail nutikas lahendus. See hoiab sinu roomamisreeglid korras, kui sait kasvab.

Saidikaart aitab otsingumootoritel leida lehed, mida soovite indekseerida. Robots.txt kontrollid, kuhu botid võivad minna.

  • Saidkaart parandab avastamist
  • Robots.txt kontrollib roomamisjuurdepääsu

Enamik veebisaite saab kasu mõlema kasutamisest.

Robots.txt on lihtne, kuid see ei ole andestav. Üks vale reegel võib blokeerida võtmelehti. See generaator aitab sul faili turvaliselt üles ehitada.

Määra vaikimisi ligipääs

Vali, kas kõik botid võivad vaikimisi sinu saiti indekseerida.

Lisa oma saidikaardi URL

Lisa oma saidikaart, et indekseerijad leiaksid olulised lehed kiiremini.

Lisa keelatud teed ettevaatlikult

Blokeeri ainult need, mida sa tõesti ei taha roomata. Alusta alati edasise kaldkriipsuga, näiteks:

/admin/ või /search/

Ülevaade enne avaldamist

Kontrolli topelt, et sa ei blokeerinud oma avalehte, blogi, kategoorialehti ega põhiteenuseid.

Robots.txt on üks tehnilise SEO osa. Need tööriistad toetavad sama eesmärki ja aitavad sul veenduda, et kõik töötab korrektselt: