در حال توسعه

Robots.txt Generator |

تبلیغات

دستورالعمل‌های عمومی

قبل از لغو لایه‌بندی، رفتار پیش‌فرض را برای همه خزنده‌ها پیکربندی کنید.

یک قانون سراسری برای اجازه یا مسدود کردن برای User-agent تنظیم کنید: *.

اگر سرور شما به فضای تنفس نیاز دارد، خزنده‌های دریچه گاز را خاموش کنید.

دستورالعمل میزبان اختیاری برای دامنه‌های آینه‌ای.

یک مسیر در هر خط. از کاراکترهای عمومی (wildcards) و اسلش‌های انتهایی پشتیبانی می‌کند.

اطمینان حاصل کنید که پوشه‌های خاص حتی در صورت مسدود شدن مسیرهای گسترده‌تر، قابل خزش باقی می‌مانند.

در هر خط یک آدرس اینترنتی نقشه سایت ارائه دهید. در صورت وجود فهرست‌های نقشه سایت اضافی، آنها را اضافه کنید.

خزنده‌های رایج

خزنده‌هایی را که می‌خواهید به‌طور کامل مسدود کنید، فعال یا غیرفعال کنید. اجازه دهید طبق قانون پیش‌فرض بالا عمل کنند.

قوانین سفارشی

عوامل کاربری را با دستورالعمل‌های مجاز یا مسدود کردن، تأخیرهای خزش و نکات نقشه سایت سفارشی اضافه کنید.

فایل تولید شده در بالا را کپی کرده و آن را با نام robots.txt در ریشه دامنه خود آپلود کنید.

فایل‌های robots.txt را برای کنترل رفتار خزیدن موتور جستجو ایجاد کنید.
تبلیغات

فهرست مطالب

Robots.txt یک فایل متنی کوچک است که ربات های جستجو را در سایت شما راهنمایی می کند. به خزنده ها می گوید به کدام مناطق می توانند دسترسی داشته باشند و از کدام مسیرها باید دوری کنند. این کار باعث می شود خزنده روی صفحات مهم تمرکز کند و بازدیدهای هدررفته روی URLهای کم ارزش را کاهش دهد.

از robots.txt برای مسدود کردن بخش هایی مانند صفحات مدیریت، پوشه های مرحله بندی، URLهای تست، فیلتر صفحات و مسیرهای تکراری استفاده کنید. وقتی قوانین شما واضح باشد، موتورهای جستجو زمان بیشتری را صرف صفحات مهم شما می کنند. این می تواند به کشف سریع تر محتوای جدید کمک کند و همچنان تمیز و قابل پیش بینی باشد.

Robots.txt بخشی از استاندارد حذف ربات هاست. شما آن را در این صورت قرار می دهید:

yourdomain.com/robots.txt

موتورهای جستجو اغلب این فایل را زود بررسی می کنند چون دستورالعمل های واضحی برای خزیدن به آن ها می دهد. اگر سایت شما کوچک باشد، ممکن است بدون فایل robots.txt ایندکس شود. اما در سایت های بزرگ تر، از دست دادن راهنمایی می تواند منجر به هدر رفتن خزیدن و کندتر شدن کشف صفحات کلیدی شود.

یک نکته مهم:

  • Robots.txt کنترل خزیدن را دارد
  • این روش تضمینی برای نمایه سازی ندارد

اگر می خواهید تأیید کنید که یک صفحه می تواند در نتایج جستجو ظاهر شود، از بررسی قابلیت نمایه سازی استفاده کنید. این به شما کمک می کند سیگنال هایی مثل noindex، منابع مسدود شده یا مشکلاتی که robots.txt پوشش نمی دهد را شناسایی کنید.

موتورهای جستجو هر صفحه را هر روز جستجو نمی کنند. آن ها بر اساس محدودیت ها و سیگنال هایی مانند سرعت سایت، سلامت سرور و میزان تغییر محتوای شما خزیده می شوند.

اگر سایت شما کند باشد یا خطا بدهد، خزنده ها ممکن است صفحات کمتری را در هر اجرا بازدید کنند. این می تواند فهرست بندی های جدید و صفحات به روزشده را به تأخیر بیندازد. Robots.txt با کاهش هدررفت کرالز کمک می کند تا ربات ها زمان بیشتری را روی صفحاتی که واقعا می خواهید روی آن ها تمرکز کنند صرف کنند.

برای بهترین نتیجه، از robots.txt با نقشه سایت استفاده کنید:

  • Robots.txt ربات ها را راهنمایی می کند که چه چیزی را بخزند یا رد کنند
  • نقشه سایت صفحاتی را که می خواهید خزیده و ایندکس شوند، فهرست می کند

یک فایل robots.txt از چند دستور ساده استفاده می کند. خواندن آن ها آسان است، اما باید با دقت بنویسید.

  • کاربر-عامل
  • تعیین می کند که قانون به کدام ربات اعمال می شود
  • رد کردن
  • بلوک هایی که برای پوشه یا مسیر می خزند
  • اجازه دهید
  • یک مسیر خاص را درون یک پوشه مسدود شده باز می کند
  • تأخیر خزیدن
  • درخواست های کندتر خزیدن برای برخی ربات ها (همه ربات ها آن را دنبال نمی کنند)

یک اشتباه کوچک می تواند صفحات مهم، از جمله دسته بندی های کلیدی یا صفحات اصلی فرود را مسدود کند. به همین دلیل استفاده از ژنراتور ایمن تر از نوشتن دستی است.

وردپرس می تواند URLهای زیادی ایجاد کند که به سئو کمکی نمی کنند، مانند صفحات جستجوی داخلی، برخی صفحات آرشیو و URLهای مبتنی بر پارامتر. مسدود کردن مناطق کم ارزش به خزنده ها کمک می کند زمان بیشتری را روی صفحات اصلی، های وبلاگ و صفحات محصول یا خدمات شما صرف کنند.

حتی در سایت های کوچک تر، فایل robots.txt تمیز یک راه حل هوشمندانه است. این کار قوانین خزیدن شما را در حین رشد سایت منظم نگه می دارد.

نقشه سایت به موتورهای جستجو کمک می کند تا صفحاتی را که می خواهید خزیده شوند، پیدا کنند. Robots.txt کنترل می کند ربات ها کجا می توانند بروند.

  • نقشه سایت کشف را بهبود می بخشد
  • Robots.txt کنترل دسترسی خزنده را بر عهده دارد

اکثر وب سایت ها از هر دو استفاده بهره مند می شوند.

Robots.txt ساده است، اما بخشنده نیست. یک قانون اشتباه می تواند صفحات کلیدی را مسدود کند. این ژنراتور به شما کمک می کند فایل را به صورت ایمن بسازید.

دسترسی پیش فرض را تنظیم کنید

انتخاب کنید که آیا همه ربات ها به طور پیش فرض می توانند سایت شما را کراول کنند یا نه.

آدرس سایت خود را اضافه کنید

نقشه سایت خود را اضافه کنید تا خزنده ها سریع تر صفحات مهم شما را پیدا کنند.

مسیرهای ممنوعه را با دقت اضافه کنید

فقط چیزهایی را مسدود کن که واقعا نمی خواهی کراول شوند. همیشه با یک اسلش رو به جلو شروع کنید، مثل:

/admin/ یا /search/

بررسی پیش از انتشار

دوباره بررسی کنید که صفحه اصلی، وبلاگ، صفحات دسته بندی یا صفحات اصلی خدمات خود را مسدود نکرده اید.

Robots.txt بخشی از سئوی فنی است. این ابزارها از همان هدف حمایت می کنند و به شما کمک می کنند مطمئن شوید همه چیز درست کار می کند:

  • بررسی کننده نقشه سایت: تأیید می کند که نقشه سایت شما معتبر و برای ربات ها آسان برای خواندن است.
  • Google Index Checker: بررسی می کند که آیا صفحه قابل ایندکس شدن است یا نه و مسدودکننده های رایجی مانند noindex را علامت گذاری می کند.
  • کد وضعیت HTTP را بررسی کنید: خطاهای 200، 301، 404 و سرور را پیدا می کند که می توانند خزیدن را کند کنند.
  • بررسی کننده ریدایرکت رایگان: تأیید می کند که ریدایرکت ها تمیز هستند و در زنجیره یا حلقه گیر نکرده اند.
  • تحلیل متا تگ: بررسی عناوین، توضیحات و متاتگ های ربات ها برای اشتباهات سئو.

مستندات API به زودی منتشر می‌شود

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.