Robots.txt Generator |
دستورالعملهای عمومی
قبل از لغو لایهبندی، رفتار پیشفرض را برای همه خزندهها پیکربندی کنید.
یک قانون سراسری برای اجازه یا مسدود کردن برای User-agent تنظیم کنید: *.
اگر سرور شما به فضای تنفس نیاز دارد، خزندههای دریچه گاز را خاموش کنید.
دستورالعمل میزبان اختیاری برای دامنههای آینهای.
یک مسیر در هر خط. از کاراکترهای عمومی (wildcards) و اسلشهای انتهایی پشتیبانی میکند.
اطمینان حاصل کنید که پوشههای خاص حتی در صورت مسدود شدن مسیرهای گستردهتر، قابل خزش باقی میمانند.
در هر خط یک آدرس اینترنتی نقشه سایت ارائه دهید. در صورت وجود فهرستهای نقشه سایت اضافی، آنها را اضافه کنید.
خزندههای رایج
خزندههایی را که میخواهید بهطور کامل مسدود کنید، فعال یا غیرفعال کنید. اجازه دهید طبق قانون پیشفرض بالا عمل کنند.
قوانین سفارشی
عوامل کاربری را با دستورالعملهای مجاز یا مسدود کردن، تأخیرهای خزش و نکات نقشه سایت سفارشی اضافه کنید.
هنوز هیچ قانون سفارشی وجود ندارد. برای ایجاد آن از دکمه بالا استفاده کنید.
رشتهی عامل کاربر دقیقاً مشخص یا با استفاده از کاراکترهای جایگزین.
فایل تولید شده در بالا را کپی کرده و آن را با نام robots.txt در ریشه دامنه خود آپلود کنید.
فهرست مطالب
Robots.txt generator برای خزیدن و نمایه سازی بهتر
Robots.txt یک فایل متنی کوچک است که ربات های جستجو را در سایت شما راهنمایی می کند. به خزنده ها می گوید به کدام مناطق می توانند دسترسی داشته باشند و از کدام مسیرها باید دوری کنند. این کار باعث می شود خزنده روی صفحات مهم تمرکز کند و بازدیدهای هدررفته روی URLهای کم ارزش را کاهش دهد.
از robots.txt برای مسدود کردن بخش هایی مانند صفحات مدیریت، پوشه های مرحله بندی، URLهای تست، فیلتر صفحات و مسیرهای تکراری استفاده کنید. وقتی قوانین شما واضح باشد، موتورهای جستجو زمان بیشتری را صرف صفحات مهم شما می کنند. این می تواند به کشف سریع تر محتوای جدید کمک کند و همچنان تمیز و قابل پیش بینی باشد.
معنای Robots.txt در سئو چیست؟
Robots.txt بخشی از استاندارد حذف ربات هاست. شما آن را در این صورت قرار می دهید:
yourdomain.com/robots.txt
موتورهای جستجو اغلب این فایل را زود بررسی می کنند چون دستورالعمل های واضحی برای خزیدن به آن ها می دهد. اگر سایت شما کوچک باشد، ممکن است بدون فایل robots.txt ایندکس شود. اما در سایت های بزرگ تر، از دست دادن راهنمایی می تواند منجر به هدر رفتن خزیدن و کندتر شدن کشف صفحات کلیدی شود.
یک نکته مهم:
- Robots.txt کنترل خزیدن را دارد
- این روش تضمینی برای نمایه سازی ندارد
اگر می خواهید تأیید کنید که یک صفحه می تواند در نتایج جستجو ظاهر شود، از بررسی قابلیت نمایه سازی استفاده کنید. این به شما کمک می کند سیگنال هایی مثل noindex، منابع مسدود شده یا مشکلاتی که robots.txt پوشش نمی دهد را شناسایی کنید.
چرا Robots.txt به بودجه خزنده کمک می کند
موتورهای جستجو هر صفحه را هر روز جستجو نمی کنند. آن ها بر اساس محدودیت ها و سیگنال هایی مانند سرعت سایت، سلامت سرور و میزان تغییر محتوای شما خزیده می شوند.
اگر سایت شما کند باشد یا خطا بدهد، خزنده ها ممکن است صفحات کمتری را در هر اجرا بازدید کنند. این می تواند فهرست بندی های جدید و صفحات به روزشده را به تأخیر بیندازد. Robots.txt با کاهش هدررفت کرالز کمک می کند تا ربات ها زمان بیشتری را روی صفحاتی که واقعا می خواهید روی آن ها تمرکز کنند صرف کنند.
برای بهترین نتیجه، از robots.txt با نقشه سایت استفاده کنید:
- Robots.txt ربات ها را راهنمایی می کند که چه چیزی را بخزند یا رد کنند
- نقشه سایت صفحاتی را که می خواهید خزیده و ایندکس شوند، فهرست می کند
Robots.txt قوانینی که باید بدانید
یک فایل robots.txt از چند دستور ساده استفاده می کند. خواندن آن ها آسان است، اما باید با دقت بنویسید.
- کاربر-عامل
- تعیین می کند که قانون به کدام ربات اعمال می شود
- رد کردن
- بلوک هایی که برای پوشه یا مسیر می خزند
- اجازه دهید
- یک مسیر خاص را درون یک پوشه مسدود شده باز می کند
- تأخیر خزیدن
- درخواست های کندتر خزیدن برای برخی ربات ها (همه ربات ها آن را دنبال نمی کنند)
یک اشتباه کوچک می تواند صفحات مهم، از جمله دسته بندی های کلیدی یا صفحات اصلی فرود را مسدود کند. به همین دلیل استفاده از ژنراتور ایمن تر از نوشتن دستی است.
چرا سایت های وردپرس اغلب به Robots.txt
وردپرس می تواند URLهای زیادی ایجاد کند که به سئو کمکی نمی کنند، مانند صفحات جستجوی داخلی، برخی صفحات آرشیو و URLهای مبتنی بر پارامتر. مسدود کردن مناطق کم ارزش به خزنده ها کمک می کند زمان بیشتری را روی صفحات اصلی، های وبلاگ و صفحات محصول یا خدمات شما صرف کنند.
حتی در سایت های کوچک تر، فایل robots.txt تمیز یک راه حل هوشمندانه است. این کار قوانین خزیدن شما را در حین رشد سایت منظم نگه می دارد.
تفاوت Robots.txt و نقشه سایت
نقشه سایت به موتورهای جستجو کمک می کند تا صفحاتی را که می خواهید خزیده شوند، پیدا کنند. Robots.txt کنترل می کند ربات ها کجا می توانند بروند.
- نقشه سایت کشف را بهبود می بخشد
- Robots.txt کنترل دسترسی خزنده را بر عهده دارد
اکثر وب سایت ها از هر دو استفاده بهره مند می شوند.
چگونه با استفاده از این ژنراتور Robots.txt ایجاد کنیم
Robots.txt ساده است، اما بخشنده نیست. یک قانون اشتباه می تواند صفحات کلیدی را مسدود کند. این ژنراتور به شما کمک می کند فایل را به صورت ایمن بسازید.
دسترسی پیش فرض را تنظیم کنید
انتخاب کنید که آیا همه ربات ها به طور پیش فرض می توانند سایت شما را کراول کنند یا نه.
آدرس سایت خود را اضافه کنید
نقشه سایت خود را اضافه کنید تا خزنده ها سریع تر صفحات مهم شما را پیدا کنند.
مسیرهای ممنوعه را با دقت اضافه کنید
فقط چیزهایی را مسدود کن که واقعا نمی خواهی کراول شوند. همیشه با یک اسلش رو به جلو شروع کنید، مثل:
/admin/ یا /search/
بررسی پیش از انتشار
دوباره بررسی کنید که صفحه اصلی، وبلاگ، صفحات دسته بندی یا صفحات اصلی خدمات خود را مسدود نکرده اید.
ابزارهای سئوی مرتبط که با Robots.txt خوب کار می کنند
Robots.txt بخشی از سئوی فنی است. این ابزارها از همان هدف حمایت می کنند و به شما کمک می کنند مطمئن شوید همه چیز درست کار می کند:
- بررسی کننده نقشه سایت: تأیید می کند که نقشه سایت شما معتبر و برای ربات ها آسان برای خواندن است.
- Google Index Checker: بررسی می کند که آیا صفحه قابل ایندکس شدن است یا نه و مسدودکننده های رایجی مانند noindex را علامت گذاری می کند.
- کد وضعیت HTTP را بررسی کنید: خطاهای 200، 301، 404 و سرور را پیدا می کند که می توانند خزیدن را کند کنند.
- بررسی کننده ریدایرکت رایگان: تأیید می کند که ریدایرکت ها تمیز هستند و در زنجیره یا حلقه گیر نکرده اند.
- تحلیل متا تگ: بررسی عناوین، توضیحات و متاتگ های ربات ها برای اشتباهات سئو.
مستندات API به زودی منتشر میشود
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.