בפיתוח

Generator Robots.txt |

פִּרסוֹמֶת

הנחיות כלליות

הגדר את התנהגות ברירת המחדל עבור כל הסורקים לפני הוספת שכבות של עקיפות.

הגדר כלל התרה או חסימה גלובלי עבור סוכן משתמש: *.

האטת זחלנים אם השרת שלך זקוק למרחב נשימה.

הנחיית מארח אופציונלית עבור דומיינים משוקפים.

נתיב אחד לכל שורה. תומך בסימני כלליים (wildcards) ובקווים נטויים (slashes) נגררים.

ודא שתיקיות ספציפיות יישארו ניתנות לסריקה גם כאשר נתיבים רחבים יותר חסומים.

ספק כתובת URL אחת של מפת אתר בכל שורה. הוסף אינדקסים נוספים של מפות אתר אם יש לך כאלה.

זחלנים נפוצים

החלף/י את הזחלנים שברצונך לחסום לחלוטין. השאר/י אותם מורשים להסתמך על כלל ברירת המחדל שלמעלה.

כללים מותאמים אישית

הוסף סוכני משתמש עם הנחיות מותאמות אישית של היתר או חסימה, עיכובי סריקה ורמזים למפת אתר.

העתיקו את הקובץ שנוצר למעלה והעלו אותו לשורש הדומיין שלכם בשם robots.txt.

צור קובצי robots.txt כדי לשלוט בהתנהגות הסריקה של מנוע החיפוש.
פִּרסוֹמֶת

תוכן עניינים

Robots.txt קובץ טקסט קטן שמנחה את בוטי החיפוש באתר שלך. הוא אומר לזחלנים לאילו אזורים הם יכולים לגשת ואילו דרכים כדאי להימנע מהן. זה ממשיך לסרוק ממוקד בדפים שחשובים ומפחית ביקורים מבוזבזים על כתובות URL בעלות ערך נמוך.

השתמש robots.txt כדי לחסום אזורים כמו דפי אדמין, תיקיות סטאז'ינג, כתובות בדיקה, סינון דפים ונתיבים כפולים. כשהכללים שלך ברורים, מנועי החיפוש מבלים יותר זמן בדפים החשובים שלך. זה יכול לעזור לתוכן חדש להתגלות מהר יותר ולהמשיך לזחול נקי וצפוי.

Robots.txt הוא חלק מתקן החרגת הרובוטים. אתה ממקם אותו ב:

yourdomain.com/robots.txt

מנועי חיפוש לעיתים בודקים את הקובץ הזה מוקדם כי הוא נותן להם הוראות זחילה ברורות. אם האתר שלך קטן, הוא עדיין עלול להיות מאונדקס בלי קובץ robots.txt. אבל באתרים גדולים יותר, חוסר הנחיה עלול להוביל לבזבוז זחילה ולגילוי איטי יותר של דפי מפתח.

נקודה חשובה:

  • Robots.txt שולט בזחילה
  • זה לא מבטיח אינדוקס

אם ברצונך לוודא שדף יכול להופיע בתוצאות חיפוש, השתמש בבדיקת אינדקסיות. זה עוזר לך לזהות אותות כמו noindex, חסימות משאבים או בעיות אחרות ש robots.txt לא מכסה.

מנועי חיפוש לא סורקים כל עמוד כל יום. הם צוחלים לפי מגבלות ואותות כמו מהירות האתר, מצב השרת, וכמה פעמים התוכן שלך משתנה.

אם האתר שלך איטי או מחזיר שגיאות, הזחלנים עשויים לבקר בפחות עמודים בכל ריצה. זה יכול לעכב את האינדקס של פוסטים חדשים ודפים מעודכנים. Robots.txt עוזר בכך שהוא מפחית בזבוז סריקות, כך שהבוטים מבלים יותר זמן בדפים שאתה באמת רוצה שיתמקדו בהם.

לתוצאות הטובות ביותר, השתמשו robots.txt עם מפת אתר:

  • Robots.txt מדריך את הבוטים במה לזחול או לדלג
  • מפת האתר מפרטת את הדפים שברצונך לסרוק ולאנדקס

קובץ robots.txt משתמש בכמה הוראות פשוטות. הם קלים לקריאה, אבל עליך לכתוב אותם בזהירות.

  • סוכן משתמש
  • קובע לאיזה בוט הכלל חל
  • אסור
  • בלוקים זוחלים לתיקייה או מסלול
  • לאפשר
  • פותח נתיב מסוים בתוך תיקייה חסומה
  • זחילה-עיכוב
  • בקשות זחילה איטית יותר עבור חלק מהבוטים (לא כל הבוטים עוקבים אחריה)

טעות קטנה יכולה לחסום דפים חשובים, כולל קטגוריות מפתח או דפי נחיתה מרכזיים. לכן שימוש בגנרטור בטוח יותר מאשר לכתוב הכל ידנית.

וורדפרס יכול ליצור כתובות URL רבות שאינן עוזרות ל-SEO, כמו דפי חיפוש פנימיים, חלק מדפי הארכיון, וכתובות URL מבוססות פרמטרים. חסימת אזורים בעלי ערך נמוך עוזרת לזחלנים להשקיע יותר זמן בדפים הראשיים, פוסטים בבלוג ודפי מוצרים או שירותים.

אפילו באתרים קטנים יותר, קובץ robots.txt נקי הוא הגדרה חכמה. זה שומר על כללי הסריקה שלך מסודרים ככל שהאתר גדל.

מפת אתר עוזרת למנועי החיפוש לגלות את הדפים שברצונך לסרוק. Robots.txt שולט לאן הרובוטים יכולים ללכת.

  • מפת האתר משפרת את הגילוי
  • Robots.txt שולט בזחילת הגישה

רוב האתרים מרוויחים משימוש בשניהם.

Robots.txt פשוט, אבל הוא לא סלחני. כלל אחד שגוי יכול לחסום דפי מפתח. מחולל זה עוזר לך לבנות את הקובץ בצורה בטוחה.

הגדרת גישה ברירת מחדל

בחר אם כל הבוטים יכולים לסרוק את האתר שלך כברירת מחדל.

הוסף את כתובת האתר שלך במפת האתר

כלול את מפת האתר שלך כדי שזחלנים יוכלו למצוא את הדפים החשובים שלך מהר יותר.

הוסף בקפידה מסלולים אסורים

חסום רק את מה שאתה באמת לא רוצה שיזחל. תמיד תתחיל עם קו קדימה, כמו:

/מנהל/ או /חיפוש/

סקירה לפני פרסום

בדוק פעמיים שלא חסמת את דף הבית, הבלוג, עמודי הקטגוריה או עמודי השירות הראשיים שלך.

Robots.txt הוא חלק אחד מ-SEO טכני. הכלים האלה תומכים באותה מטרה ועוזרים לך לוודא שהכל עובד כראוי:

תיעוד API בקרוב

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.