common.you_need_to_be_loggedin_to_add_tool_in_favorites
Generator Robots.txt |
הנחיות כלליות
הגדר את התנהגות ברירת המחדל עבור כל הסורקים לפני הוספת שכבות של עקיפות.
הגדר כלל התרה או חסימה גלובלי עבור סוכן משתמש: *.
האטת זחלנים אם השרת שלך זקוק למרחב נשימה.
הנחיית מארח אופציונלית עבור דומיינים משוקפים.
נתיב אחד לכל שורה. תומך בסימני כלליים (wildcards) ובקווים נטויים (slashes) נגררים.
ודא שתיקיות ספציפיות יישארו ניתנות לסריקה גם כאשר נתיבים רחבים יותר חסומים.
ספק כתובת URL אחת של מפת אתר בכל שורה. הוסף אינדקסים נוספים של מפות אתר אם יש לך כאלה.
זחלנים נפוצים
החלף/י את הזחלנים שברצונך לחסום לחלוטין. השאר/י אותם מורשים להסתמך על כלל ברירת המחדל שלמעלה.
כללים מותאמים אישית
הוסף סוכני משתמש עם הנחיות מותאמות אישית של היתר או חסימה, עיכובי סריקה ורמזים למפת אתר.
אין עדיין כללים מותאמים אישית. השתמש בכפתור למעלה כדי ליצור אחד.
מחרוזת סוכן משתמש מדויקת או עם תו כללי (wildcard).
העתיקו את הקובץ שנוצר למעלה והעלו אותו לשורש הדומיין שלכם בשם robots.txt.
תוכן עניינים
Robots.txt מחולל לזחילה ואינדוקס טובים יותר
Robots.txt קובץ טקסט קטן שמנחה את בוטי החיפוש באתר שלך. הוא אומר לזחלנים לאילו אזורים הם יכולים לגשת ואילו דרכים כדאי להימנע מהן. זה ממשיך לסרוק ממוקד בדפים שחשובים ומפחית ביקורים מבוזבזים על כתובות URL בעלות ערך נמוך.
השתמש robots.txt כדי לחסום אזורים כמו דפי אדמין, תיקיות סטאז'ינג, כתובות בדיקה, סינון דפים ונתיבים כפולים. כשהכללים שלך ברורים, מנועי החיפוש מבלים יותר זמן בדפים החשובים שלך. זה יכול לעזור לתוכן חדש להתגלות מהר יותר ולהמשיך לזחול נקי וצפוי.
מה המשמעות Robots.txt ב-SEO
Robots.txt הוא חלק מתקן החרגת הרובוטים. אתה ממקם אותו ב:
yourdomain.com/robots.txt
מנועי חיפוש לעיתים בודקים את הקובץ הזה מוקדם כי הוא נותן להם הוראות זחילה ברורות. אם האתר שלך קטן, הוא עדיין עלול להיות מאונדקס בלי קובץ robots.txt. אבל באתרים גדולים יותר, חוסר הנחיה עלול להוביל לבזבוז זחילה ולגילוי איטי יותר של דפי מפתח.
נקודה חשובה:
- Robots.txt שולט בזחילה
- זה לא מבטיח אינדוקס
אם ברצונך לוודא שדף יכול להופיע בתוצאות חיפוש, השתמש בבדיקת אינדקסיות. זה עוזר לך לזהות אותות כמו noindex, חסימות משאבים או בעיות אחרות ש robots.txt לא מכסה.
למה Robots.txt עוזר עם תקציב זחילה.
מנועי חיפוש לא סורקים כל עמוד כל יום. הם צוחלים לפי מגבלות ואותות כמו מהירות האתר, מצב השרת, וכמה פעמים התוכן שלך משתנה.
אם האתר שלך איטי או מחזיר שגיאות, הזחלנים עשויים לבקר בפחות עמודים בכל ריצה. זה יכול לעכב את האינדקס של פוסטים חדשים ודפים מעודכנים. Robots.txt עוזר בכך שהוא מפחית בזבוז סריקות, כך שהבוטים מבלים יותר זמן בדפים שאתה באמת רוצה שיתמקדו בהם.
לתוצאות הטובות ביותר, השתמשו robots.txt עם מפת אתר:
- Robots.txt מדריך את הבוטים במה לזחול או לדלג
- מפת האתר מפרטת את הדפים שברצונך לסרוק ולאנדקס
Robots.txt כללים שכדאי שתדע
קובץ robots.txt משתמש בכמה הוראות פשוטות. הם קלים לקריאה, אבל עליך לכתוב אותם בזהירות.
- סוכן משתמש
- קובע לאיזה בוט הכלל חל
- אסור
- בלוקים זוחלים לתיקייה או מסלול
- לאפשר
- פותח נתיב מסוים בתוך תיקייה חסומה
- זחילה-עיכוב
- בקשות זחילה איטית יותר עבור חלק מהבוטים (לא כל הבוטים עוקבים אחריה)
טעות קטנה יכולה לחסום דפים חשובים, כולל קטגוריות מפתח או דפי נחיתה מרכזיים. לכן שימוש בגנרטור בטוח יותר מאשר לכתוב הכל ידנית.
מדוע אתרי וורדפרס זקוקים לעיתים קרובות Robots.txt
וורדפרס יכול ליצור כתובות URL רבות שאינן עוזרות ל-SEO, כמו דפי חיפוש פנימיים, חלק מדפי הארכיון, וכתובות URL מבוססות פרמטרים. חסימת אזורים בעלי ערך נמוך עוזרת לזחלנים להשקיע יותר זמן בדפים הראשיים, פוסטים בבלוג ודפי מוצרים או שירותים.
אפילו באתרים קטנים יותר, קובץ robots.txt נקי הוא הגדרה חכמה. זה שומר על כללי הסריקה שלך מסודרים ככל שהאתר גדל.
הבדל בין Robots.txt למפת האתר
מפת אתר עוזרת למנועי החיפוש לגלות את הדפים שברצונך לסרוק. Robots.txt שולט לאן הרובוטים יכולים ללכת.
- מפת האתר משפרת את הגילוי
- Robots.txt שולט בזחילת הגישה
רוב האתרים מרוויחים משימוש בשניהם.
איך ליצור Robots.txt באמצעות הגנרטור הזה
Robots.txt פשוט, אבל הוא לא סלחני. כלל אחד שגוי יכול לחסום דפי מפתח. מחולל זה עוזר לך לבנות את הקובץ בצורה בטוחה.
הגדרת גישה ברירת מחדל
בחר אם כל הבוטים יכולים לסרוק את האתר שלך כברירת מחדל.
הוסף את כתובת האתר שלך במפת האתר
כלול את מפת האתר שלך כדי שזחלנים יוכלו למצוא את הדפים החשובים שלך מהר יותר.
הוסף בקפידה מסלולים אסורים
חסום רק את מה שאתה באמת לא רוצה שיזחל. תמיד תתחיל עם קו קדימה, כמו:
/מנהל/ או /חיפוש/
סקירה לפני פרסום
בדוק פעמיים שלא חסמת את דף הבית, הבלוג, עמודי הקטגוריה או עמודי השירות הראשיים שלך.
כלי SEO קשורים שעובדים טוב עם Robots.txt
Robots.txt הוא חלק אחד מ-SEO טכני. הכלים האלה תומכים באותה מטרה ועוזרים לך לוודא שהכל עובד כראוי:
- בודק מפת האתר: מאשר שהמפה שלך תקפה וקלה לקריאה על ידי בוטים.
- בודק האינדקס של גוגל: בודק האם ניתן לאנדקס דף ומסמן חוסמים נפוצים כמו noindex.
- בדוק קוד סטטוס HTTP: מוצא שגיאות 200, 301, 404 ושגיאות שרת שיכולות להאט את הזחילה.
- בודק הפניות חינמי: מאשר שההפניות נקיות ולא תקועות בשרשראות או בלולאות.
- ניתוח מטא-תגיות: ביקורות, כותרות, תיאורים ורובוטים מכתבים על טעויות SEO.
תיעוד API בקרוב
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.