Генератор на robots.txt |
Общи директиви
Конфигурирайте поведението по подразбиране за всички роботи, преди да презапишете наслояванията.
Задайте глобално правило за разрешаване или блокиране за потребителски агент: *.
Намалете скоростта на роботите, ако вашият сървър се нуждае от повече пространство.
Незадължителна директива за хост за огледални домейни.
Един път на ред. Поддържа заместващи символи и наклонени черти в края.
Осигурете достъп до обхождане на определени папки, дори когато по-широки пътища са блокирани.
Предоставяйте по един URL адрес на картата на сайта на ред. Добавете допълнителни индекси на картата на сайта, ако имате такива.
Често срещани роботи
Превключете роботите, които искате да блокирате изцяло. Оставете им да разчитат на правилото по подразбиране по-горе.
Персонализирани правила
Добавете потребителски агенти с персонализирани директиви за разрешаване или блокиране, забавяния на обхождането и подсказки за картата на сайта.
Все още няма персонализирани правила. Използвайте бутона по-горе, за да създадете такова.
Точен или заместващ символ низ на потребителски агент.
Копирайте генерирания файл по-горе и го качете в корена на вашия домейн като robots.txt.
Съдържание
Robots.txt генератор за по-добро обхождане и индексиране
Robots.txt е малък текстов файл, който насочва ботовете за търсене на вашия сайт. Той казва на краулърите кои зони могат да имат достъп и кои пътеки трябва да избягват. Това продължава да се фокусира върху важни страници и намалява изгубените посещения на нискостойностни URL адреси.
Използвайте robots.txt, за да блокирате области като администраторски страници, staging папки, тестови URL адреси, филтърни страници и дублиращи се пътища. Когато правилата ви са ясни, търсачките отделят повече време на важните ви страници. Това може да помогне новото съдържание да се открива по-бързо и да остава чисто и предвидимо.
Какво означава Robots.txt в SEO
Robots.txt е част от стандарта за изключване на роботите. Поставяте го на:
yourdomain.com/robots.txt
Търсачките често проверяват този файл рано, защото им дава ясни указания за обхождане. Ако сайтът ви е малък, все пак може да бъде индексиран без robots.txt файл. Но при по-големите сайтове липсата на насоки може да доведе до изгубено обхождане и по-бавно откриване на ключови страници.
Един важен момент:
- Robots.txt контролите пълзят
- Не гарантира индексиране
Ако искате да потвърдите, че дадена страница може да се появи в резултатите от търсенето, използвайте проверка за индексируемост. Това ти помага да разпознаеш сигнали като noindex, блокирани ресурси или други проблеми, които robots.txt не покрива.
Защо Robots.txt помага с бюджета за пълзене
Търсачките не преглеждат всяка страница всеки ден. Те обхождат на база ограничения и сигнали като скорост на сайта, здраве на сървъра и колко често съдържанието ви се променя.
Ако сайтът ви е бавен или връща грешки, скраулърите може да посещават по-малко страници при всяко изпълнение. Това може да забави индексирането на нови публикации и обновени страници. Robots.txt помага, като намалява изгубените обхождания, така че ботовете да прекарват повече време на страниците, на които наистина искате да се съсредоточат.
За най-добри резултати използвайте robots.txt с карта на сайта:
- Robots.txt насочва ботовете какво да обхождат или пропускат
- Sitemap изброява страниците, които искате да бъдат обходени и индексирани
Robots.txt правила, които трябва да знаете
Файлът robots.txt използва няколко прости директиви. Те са лесни за четене, но трябва да ги пишете внимателно.
- Потребител-агент
- Задава към кой бот се прилага правилото
- Забрана
- Блокове, които търсят папка или път
- Позволи
- Отваря специфичен път вътре в блокирана папка
- Забавяне при пълзене
- Иска по-бавно обхождане за някои ботове (не всички ботове го следват)
Малка грешка може да блокира важни страници, включително ключови категории или основни целеви страници. Затова използването на генератор е по-безопасно от ръчното писане.
Защо WordPress сайтовете често се нуждаят от Robots.txt
WordPress може да създава много URL адреси, които не помагат на SEO, като вътрешни страници за търсене, някои архивни страници и URL адреси, базирани на параметри. Блокирането на зони с ниска стойност помага на краулърите да прекарват повече време на основните ви страници, блог публикации и страници с продукти или услуги.
Дори и на по-малки сайтове, чистият robots.txt файл е умна конфигурация. Това поддържа правилата ви за обхождане под контрол, докато сайтът расте.
Robots.txt и Разлика в картата на сайта
Картата на сайта помага на търсачките да открият страниците, които искате да се обходят. Robots.txt контролира къде могат да отиват ботовете.
- Sitemap подобрява откриването
- Robots.txt контролира пълзещия достъп
Повечето сайтове се възползват от използването и на двете.
Как да създадете Robots.txt с помощта на този генератор
Robots.txt е просто, но не е прощаващо. Едно грешно правило може да блокира ключови страници. Този генератор ви помага да изградите файла безопасно.
Задайте стандартен достъп
Изберете дали всички ботове могат по подразбиране да обхождат сайта ви.
Добавете URL адреса на вашата карта на сайта
Включи своята карта на сайта, за да могат краулърите да намират важните ти страници по-бързо.
Добавете внимателно забранените пътеки
Блокирай само това, което наистина не искаш да бъде пълзене. Винаги започвайте с напреднал кос черт, като:
/admin/ или /search/
Рецензия преди публикуване
Проверете два пъти дали не сте блокирали началната страница, блога, категориите или основните страници на услугата.
Свързани SEO инструменти, които работят добре с Robots.txt
Robots.txt е част от техническото SEO. Тези инструменти поддържат същата цел и ви помагат да потвърдите, че всичко работи правилно:
- Sitemap Checker: Потвърждава, че вашата карта е валидна и лесна за четене от ботове.
- Google Index Checker: Проверява дали дадена страница може да бъде индексирана и маркира често срещани блокери като noindex.
- Провери HTTP статус кода: Открива 200, 301, 404 и сървърни грешки, които могат да се забавят обхождането.
- Безплатен проверител за пренасочване: Потвърждава, че пренасочванията са чисти и не са заседнали в вериги или примки.
- Анализ на мета тагове: Преглежда заглавия, описания и метатагове на роботите за SEO грешки.
Документация за API - Очаквайте скоро
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.
Свързани инструменти
- Оптимизатор на мета описание
- URL структурен анализатор
- Изследване на местни ключови думи
- Анализатор на обратни връзки на конкуренти
- Проверка на индексируемост
- Счупен търсач на обратни връзки
- Проверка на дублираното съдържание
- Генератор на идеи за съдържание
- Инструмент за предложения за ключови думи
- Проследяване на ранг на ключови думи