common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt generaator |
Üldised direktiivid
Enne kihtide tühistamist konfigureerige kõigi robotite vaikekäitumine.
Määrake kasutajaagendile globaalne lubamis- või blokeerimisreegel: *.
Kui teie server vajab hingamisruumi, piirake roomajaid.
Peegeldatud domeenide jaoks valikuline hosti direktiiv.
Üks tee rea kohta. Toetab metamärke ja kaldkriipse.
Veenduge, et teatud kaustad jääksid indekseeritavaks isegi siis, kui laiemad teed on blokeeritud.
Esitage iga rea kohta üks saidikaardi URL. Lisage täiendavaid saidikaardi indekseid, kui teil neid on.
Harilikud roomajad
Lülitage sisse robotid, mille soovite täielikult blokeerida. Jätke need ülaltoodud vaikereeglile toetuma.
Kohandatud reeglid
Lisage kasutajaagendid kohandatud lubamis- või blokeerimisdirektiivide, indekseerimise viivituste ja saidikaardi vihjetega.
Kohandatud reegleid pole veel. Kasutage ülalolevat nuppu ühe loomiseks.
Täpne või metamärgiga kasutajaagendi string.
Kopeeri ülalpool genereeritud fail ja laadi see üles oma domeeni juurkataloogi nimega robots.txt.
Robots.txt Generaator paremaks indekseerimiseks ja indekseerimiseks
Robots.txt on väike tekstifail, mis juhib otsinguroboteid sinu saidil. See ütleb roomajatele, millistesse aladesse nad pääsevad ja milliseid teid vältida. See hoiab indekseerimist, keskendudes olulistele lehtedele ja vähendab raisatud külastusi madala väärtusega URL-idel.
Kasuta robots.txt, et blokeerida alasid nagu administraatorilehed, staadikaustad, test-URL-id, filtrilehed ja duplikaatteed. Kui reeglid on selged, veedavad otsingumootorid rohkem aega teie olulistele lehtedele. See aitab uut sisu kiiremini avastada ja püsida puhtana ning etteaimatavana.
Mida Robots.txt SEO-s tähendab
Robots.txt on osa robotite välistamisstandardist. Sa paigutad selle aadressile:
yourdomain.com/robots.txt
Otsingumootorid kontrollivad seda faili sageli varakult, sest see annab neile selged roomamisjuhised. Kui su sait on väike, võib see ikkagi indekseerida ilma robots.txt failita. Kuid suurematel saitidel võib juhiste puudumine viia raisatud indekseerimiseni ja võtmelehtede aeglasema avastamiseni.
Üks oluline punkt:
- Robots.txt kontrollib roomamist
- See ei garanteeri indekseerimist
Kui soovid veenduda, et leht võib otsingutulemustes ilmuda, kasuta indekseeritavuse kontrolli. See aitab märgata signaale nagu noindex, blokeeritud ressursid või muud probleemid, mida robots.txt ei kata.
Miks Robots.txt aitab roomamiseelarvega
Otsingumootorid ei indekseeri iga lehte iga päev. Nad indekseerivad vastavalt piirangutele ja signaalidele, nagu saidi kiirus, serveri tervis ja kui tihti sinu sisu muutub.
Kui teie sait on aeglane või tagastab vigu, võivad roomajad külastada vähem lehti ühe jooksu jooksul. See võib viivitada uute postituste ja uuendatud lehtede indekseerimist. Robots.txt aitab vähendada raisatud indekse, nii et botid veedavad rohkem aega lehtedel, millele sa tegelikult tahad, et nad keskenduksid.
Parimate tulemuste saavutamiseks kasuta robots.txt koos saidikaardiga:
- Robots.txt juhendab roboteid, mida roomata või vahele jätta
- Saidmap loetleb lehed, mida soovid indekseerida ja indekseerida
Robots.txt reeglid, mida peaksid teadma
robots.txt fail kasutab mõningaid lihtsaid juhiseid. Neid on lihtne lugeda, kuid neid tuleb hoolikalt kirjutada.
- Kasutaja-agent
- Määrab, millisele botile reegel kehtib
- Keela
- Plokid, mis otsivad kausta või teed
- Luba
- Avab kindla tee blokeeritud kaustas
- Roomamisviivitus
- Mõne roboti puhul on taotlused aeglasemalt roomatud (mitte kõik botid ei järgi seda)
Väike viga võib blokeerida olulisi lehti, sealhulgas võtmekategooriaid või põhilisi maandumislehti. Seetõttu on generaatori kasutamine turvalisem kui kõik käsitsi kirjutamine.
Miks WordPressi saidid sageli vajavad Robots.txt
WordPress suudab luua palju URL-e, mis SEO-le ei aita, näiteks sisemised otsingulehed, mõned arhiivilehed ja parameetripõhised URL-id. Madala väärtusega alade blokeerimine aitab indekseerijatel veeta rohkem aega teie põhilehtedel, blogipostitustel ning toote- või teenuselehtedel.
Isegi väiksematel saitidel on puhas robots.txt fail nutikas lahendus. See hoiab sinu roomamisreeglid korras, kui sait kasvab.
Robots.txt ja saidikaardi erinevused
Saidikaart aitab otsingumootoritel leida lehed, mida soovite indekseerida. Robots.txt kontrollid, kuhu botid võivad minna.
- Saidkaart parandab avastamist
- Robots.txt kontrollib roomamisjuurdepääsu
Enamik veebisaite saab kasu mõlema kasutamisest.
Kuidas luua Robots.txt selle generaatori abil
Robots.txt on lihtne, kuid see ei ole andestav. Üks vale reegel võib blokeerida võtmelehti. See generaator aitab sul faili turvaliselt üles ehitada.
Määra vaikimisi ligipääs
Vali, kas kõik botid võivad vaikimisi sinu saiti indekseerida.
Lisa oma saidikaardi URL
Lisa oma saidikaart, et indekseerijad leiaksid olulised lehed kiiremini.
Lisa keelatud teed ettevaatlikult
Blokeeri ainult need, mida sa tõesti ei taha roomata. Alusta alati edasise kaldkriipsuga, näiteks:
/admin/ või /search/
Ülevaade enne avaldamist
Kontrolli topelt, et sa ei blokeerinud oma avalehte, blogi, kategoorialehti ega põhiteenuseid.
Seotud SEO tööriistad, mis töötavad hästi Robots.txt
Robots.txt on üks tehnilise SEO osa. Need tööriistad toetavad sama eesmärki ja aitavad sul veenduda, et kõik töötab korrektselt:
- Saidkaardi kontrollija: Kinnitab, et teie saidikaart on kehtiv ja bottidele lihtne lugeda.
- Google Index Checker: Kontrollib, kas lehte saab indekseerida, ja märgistab levinud blokeerijad nagu noindex.
- Kontrolli HTTP olekukoodi: Leiab 200, 301, 404 ja serveri vead, mis võivad aeglustada roomamist.
- Tasuta ümbersuunamise kontrollija: Kinnitab, et suunamised on puhtad ega jää ahelatesse ega tsüklitesse kinni.
- Meta siltide analüüs: Vaatab üle pealkirju, kirjeldusi ja robotite meta-silte SEO vigade suhtes.