Генератор файлів robots.txt |
Загальні директиви
Налаштуйте поведінку за замовчуванням для всіх сканерів перед перевизначенням нашарувань.
Встановити глобальне правило дозволу або блокування для User-agent: *.
Зменште кількість сканерів, якщо вашому серверу потрібен простір для перепочинку.
Додаткова директива хоста для дзеркальних доменів.
Один шлях на рядок. Підтримуються шаблони підстановки та косі риски в кінці.
Забезпечте доступність сканування певних папок, навіть якщо ширші шляхи заблоковано.
Надайте одну URL-адресу карти сайту на рядок. Додайте додаткові індекси карти сайту, якщо вони у вас є.
Звичайні сканери
Перемикайте сканери, які потрібно повністю заблокувати. Залиште їх з можливістю покладатися на правило за замовчуванням, наведене вище.
Користувацькі правила
Додайте користувацькі агенти з налаштованими директивами дозволу або блокування, затримками сканування та підказками щодо карти сайту.
Поки що немає власних правил. Створіть їх за допомогою кнопки вище.
Точний рядок або рядок підстановки для користувацького агента.
Скопіюйте згенерований вище файл і завантажте його в кореневий каталог вашого домену як robots.txt.
Генератор robots.txt для кращого сканування та індексування
Robots.txt — це невеликий текстовий файл, який спрямовує пошукових роботів на ваш сайт.
Використовуйте robots.txt, щоб блокувати такі області, як сторінки адміністратора, проміжні папки, тестові URL-адреси, сторінки фільтрів і повторювані шляхи.
Що означає Robots.txt у SEO
Robots.txt є частиною стандарту виключення роботів.
yourdomain.com/robots.txt
Пошукові системи часто перевіряють цей файл на ранній стадії, оскільки він дає їм чіткі вказівки щодо сканування.
Один важливий момент:
- Robots.txt контролює сканування
- Це не гарантує індексацію
Якщо ви хочете підтвердити, що сторінка може відображатися в результатах пошуку, скористайтеся перевіркою індексації.
Чому Robots.txt допомагає з бюджетом сканування
Пошукові системи не сканують кожну сторінку щодня.
Якщо ваш сайт працює повільно або повертає помилки, сканери можуть відвідувати менше сторінок за один запуск.
Щоб отримати найкращі результати, використовуйте robots.txt із картою сайту:
- Robots.txt вказує роботам, що сканувати або пропускати
- Карта сайту містить сторінки, які ви хочете просканувати та проіндексувати
Правила файлу robots.txt, які ви повинні знати
Файл robots.txt використовує кілька простих директив.
- Агент користувача
- Встановлює, до якого бота застосовується правило
- Заборонити
- Блокує пошук папки або шляху
- Дозволити
- Відкриває певний шлях усередині заблокованої папки
- Затримка сканування
- Запитує повільніше сканування для деяких ботів (не всі боти дотримуються цього)
Невелика помилка може заблокувати важливі сторінки, зокрема ключові категорії чи основні цільові сторінки.
Чому сайтам WordPress часто потрібен файл robots.txt
WordPress може створювати багато URL-адрес, які не допомагають SEO, наприклад сторінки внутрішнього пошуку, деякі сторінки архіву та URL-адреси на основі параметрів.
Навіть на невеликих сайтах чистий файл robots.txt є розумним налаштуванням.
Різниця між файлами robots.txt і Sitemap
Карта сайту допомагає пошуковим системам знаходити сторінки, які ви хочете просканувати.
- Карта сайту покращує виявлення
- Robots.txt контролює доступ сканування
Більшість веб-сайтів виграють від використання обох.
Як створити файл Robots.txt за допомогою цього генератора
Robots.txt простий, але не прощає.
Установити доступ за умовчанням
Виберіть, чи всі боти можуть сканувати ваш сайт за умовчанням.
Додайте URL-адресу карти сайту
Додайте свою карту сайту, щоб сканери могли швидше знаходити важливі сторінки.
Обережно додавайте заборонені шляхи
Блокуйте лише те, що ви справді не хочете сканувати.
/admin/ або /search/
Перегляньте перед публікацією
Ще раз переконайтеся, що ви не заблокували свою домашню сторінку, блог, сторінки категорій або головні сторінки служби.
Пов’язані інструменти SEO, які добре працюють із файлом Robots.txt
Robots.txt є частиною технічного SEO.
- Засіб перевірки карти сайту: підтверджує, що ваша карта сайту дійсна та її легко читати роботам.
- Google Index Checker: перевіряє, чи можна проіндексувати сторінку, і позначає типові блокувальники, як-от noindex.
- Перевірити код статусу HTTP: знаходить помилки 200, 301, 404 і сервер, які можуть уповільнити сканування.
- Безкоштовна перевірка перенаправлення: перевіряє, що перенаправлення чисті та не застрягли в ланцюжках чи петлях.
- Аналіз метатегів: перевіряє заголовки, описи та метатеги robots на наявність помилок SEO.