În dezvoltare

Robots.txt Generator |

Publicitate

Directive generale

Configurați comportamentul implicit pentru toate crawlerele înainte de suprascrierile de stratificare.

Setați o regulă globală de permitere sau blocare pentru User-agent: *.

Limitează viteza crawlerelor dacă serverul tău are nevoie de spațiu.

Directivă opțională gazdă pentru domenii oglindite.

O cale pe linie. Acceptă wildcard-uri și bare oblice la final.

Asigurați-vă că anumite foldere rămân accesibile prin crawling chiar și atunci când căile mai largi sunt blocate.

Furnizați câte o adresă URL pentru harta site-ului pe fiecare rând. Adăugați indexuri suplimentare pentru harta site-ului, dacă aveți.

Crawler-e comune

Activează/dezactivează crawlerele pe care dorești să le blochezi complet. Lasă-le permisiunea de a se baza pe regula implicită de mai sus.

Reguli personalizate

Adăugați agenți utilizator cu directive de permitere sau blocare personalizate, întârzieri la accesarea cu crawlere și indicii pentru harta site-ului.

Copiați fișierul generat mai sus și încărcați-l în rădăcina domeniului dvs. ca robots.txt.

Generați fișiere robots.txt pentru a controla comportamentul de accesare cu crawlere a motorului de căutare.
Publicitate

Cuprins

Robots.txt este un fișier text mic care ghidează boții de căutare de pe site-ul tău. Le spune crawlerilor ce zone pot accesa și ce trasee ar trebui să evite. Acest lucru menține crawling-ul concentrat pe paginile care contează și reduce vizitele irosite pe URL-uri de valoare scăzută.

Folosește robots.txt pentru a bloca zone precum pagini de administrare, foldere de staging, URL-uri de testare, pagini de filtru și căi duplicate. Când regulile tale sunt clare, motoarele de căutare petrec mai mult timp pe paginile tale importante. Acest lucru poate ajuta ca conținutul nou să fie descoperit mai repede și să continue să fie curat și previzibil.

Robots.txt face parte din standardul de excludere al roboților. Îl plasezi la:

yourdomain.com/robots.txt

Motoarele de căutare verifică adesea acest fișier devreme pentru că le oferă indicații clare de crawling. Dacă site-ul tău este mic, tot poate fi indexat fără un fișier robots.txt. Dar pe site-urile mai mari, lipsa îndrumărilor poate duce la o irosită de crawling și descoperirea mai lentă a paginilor cheie.

Un aspect important:

  • Robots.txt controlează crawling-ul
  • Nu garantează indexarea

Dacă vrei să confirmi că o pagină poate apărea în rezultatele căutării, folosește o verificare a indexabilității. Asta te ajută să identifici semnale precum noindex, resurse blocate sau alte probleme pe care robots.txt nu le acoperă.

Motoarele de căutare nu scanează fiecare pagină în fiecare zi. Acestea se adaptează la limite și semnale precum viteza site-ului, starea serverului și frecvența cu care se schimbă conținutul.

Dacă site-ul tău este lent sau returnează erori, crawlerele pot vizita mai puține pagini la fiecare rulare. Acest lucru poate întârzia indexarea pentru postările noi și paginile actualizate. Robots.txt ajută prin reducerea crawl-urilor irosite, astfel încât boții petrec mai mult timp pe paginile pe care vrei cu adevărat să se concentreze.

Pentru cele mai bune rezultate, folosește robots.txt cu o hartă a site-ului:

  • Robots.txt ghidează boții despre ce să crawleze sau să sară peste
  • Sitemap listează paginile pe care vrei să le scanezi și să le indexezi

Un fișier robots.txt folosește câteva directive simple. Sunt ușor de citit, dar trebuie să le scrii cu grijă.

  • User-agent
  • Setează cărui bot se aplică regula
  • Interzis
  • Blocuri care se târăsc pentru un folder sau o cale
  • Permite
  • Deschide o cale specifică într-un folder blocat
  • Întârziere de crawl
  • Cereri mai lente pentru unii boți (nu toți boții o urmează)

O mică greșeală poate bloca pagini importante, inclusiv categorii cheie sau pagini de destinație de bază. De aceea folosirea unui generator este mai sigură decât să scrii totul manual.

WordPress poate crea multe URL-uri care nu ajută la SEO, cum ar fi pagini interne de căutare, unele pagini de arhivă și URL-uri bazate pe parametri. Blocarea zonelor cu valoare redusă îi ajută pe crawleri să petreacă mai mult timp pe paginile principale, postările de blog și paginile de produse sau servicii.

Chiar și pe site-uri mai mici, un fișier robots.txt curat este o configurație inteligentă. Îți menține regulile de crawl organizate pe măsură ce site-ul crește.

O hartă a site-ului ajută motoarele de căutare să descopere paginile pe care vrei să le explorezi. Robots.txt controlează unde pot merge boții.

  • Harta site-ului îmbunătățește descoperirea
  • Robots.txt controlează accesul de crawling

Majoritatea site-urilor beneficiază de folosirea ambelor.

Robots.txt este simplu, dar nu este iertător. O regulă greșită poate bloca paginile cheie. Acest generator te ajută să construiești fișierul în siguranță.

Setează accesul implicit

Alege dacă toți boții pot scana site-ul tău implicit.

Adaugă URL-ul sitemap-ului tău

Include harta site-ului pentru ca crawlerii să poată găsi mai repede paginile importante.

Adaugă cu grijă căile interzise

Blochează doar ceea ce nu vrei cu adevărat să fie târât. Începe întotdeauna cu o lovitură înainte, de exemplu:

/admin/ sau /search/

Recenzie înainte de publicare

Verifică de două ori dacă nu ți-ai blocat pagina principală, blogul, paginile de categorii sau paginile principale de serviciu.

Robots.txt este o parte a SEO-ului tehnic. Aceste instrumente susțin același scop și te ajută să confirmi că totul funcționează corect:

Documentația API va fi disponibilă în curând

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.