উন্নয়নাধীন

Robots.txt জেনারেটর |

বিজ্ঞাপন

সাধারণ নির্দেশাবলী

লেয়ারিং ওভাররাইডের আগে সমস্ত ক্রলারের জন্য ডিফল্ট আচরণ কনফিগার করুন।

ব্যবহারকারী-এজেন্টের জন্য একটি বিশ্বব্যাপী অনুমতি বা ব্লক নিয়ম সেট করুন: *।

আপনার সার্ভারের যদি শ্বাস-প্রশ্বাসের প্রয়োজন হয়, তাহলে থ্রটল ক্রলার ব্যবহার করুন।

মিরর করা ডোমেনের জন্য ঐচ্ছিক হোস্ট নির্দেশিকা।

প্রতি লাইনে একটি পাথ। ওয়াইল্ডকার্ড এবং ট্রেইলিং স্ল্যাশ সমর্থন করে।

নিশ্চিত করুন যে নির্দিষ্ট ফোল্ডারগুলি ক্রল করা যায়, এমনকি যখন প্রশস্ত পথগুলি অবরুদ্ধ থাকে।

প্রতি লাইনে একটি করে সাইটম্যাপ URL দিন। যদি আপনার কাছে অতিরিক্ত সাইটম্যাপ সূচী থাকে তবে সেগুলি যোগ করুন।

সাধারণ ক্রলার

আপনি যে ক্রলারগুলিকে সম্পূর্ণরূপে ব্লক করতে চান সেগুলি টগল করুন। উপরের ডিফল্ট নিয়মের উপর নির্ভর করার অনুমতি দিন।

কাস্টম নিয়ম

ব্যবহারকারী-এজেন্ট যোগ করুন, যাতে অনুমতি বা ব্লকের জন্য উপযুক্ত নির্দেশিকা, ক্রল বিলম্ব এবং সাইটম্যাপের ইঙ্গিত থাকে।

উপরে তৈরি করা ফাইলটি কপি করুন এবং আপনার ডোমেনের রুটে robots.txt হিসেবে আপলোড করুন।

সার্চ ইঞ্জিন ক্রলিং আচরণ নিয়ন্ত্রণ করতে robots.txt ফাইল তৈরি করুন।
Table of Contents

Robots.txt হল একটি ছোট টেক্সট ফাইল যা আপনার সাইটে সার্চ বটকে গাইড করে।

অ্যাডমিন পেজ, স্টেজিং ফোল্ডার, টেস্ট ইউআরএল, ফিল্টার পেজ এবং ডুপ্লিকেট পাথের মতো এলাকা ব্লক করতে robots.txt ব্যবহার করুন।

Robots.txt হল রোবট এক্সক্লুশন স্ট্যান্ডার্ডের অংশ।

yourdomain.com/robots.txt

সার্চ ইঞ্জিন প্রায়শই এই ফাইলটি তাড়াতাড়ি চেক করে কারণ এটি তাদের পরিষ্কার ক্রল করার দিকনির্দেশ দেয়।

একটি গুরুত্বপূর্ণ বিষয়:

  • Robots.txt নিয়ন্ত্রণ করে ক্রলিং
  • এটি সূচীকরণের গ্যারান্টি দেয় না

আপনি যদি নিশ্চিত করতে চান যে সার্চের ফলাফলে একটি পৃষ্ঠা উপস্থিত হতে পারে, তাহলে একটি সূচীযোগ্যতা পরীক্ষা ব্যবহার করুন।

সার্চ ইঞ্জিন প্রতিদিন প্রতিটি পৃষ্ঠা ক্রল করে না।

যদি আপনার সাইট ধীরগতির হয় বা ত্রুটি দেখায়, ক্রলাররা প্রতি রানে কম পৃষ্ঠা পরিদর্শন করতে পারে।

সেরা ফলাফলের জন্য, একটি সাইটম্যাপের সাথে robots.txt ব্যবহার করুন:

  • Robots.txt বটগুলিকে কী ক্রল বা এড়িয়ে যেতে হবে সে বিষয়ে নির্দেশনা দেয়
  • সাইটম্যাপ তালিকা যে পৃষ্ঠাগুলি আপনি ক্রল এবং ইন্ডেক্স করতে চান

একটি robots.txt ফাইল কয়েকটি সহজ নির্দেশাবলী ব্যবহার করে।

  • ইউজার-এজেন্ট
  • নিয়মটি কোন বটটিতে প্রযোজ্য তা সেট করে
  • অনুমতি দিন
  • একটি ফোল্ডার বা পথের জন্য ক্রলিং ব্লক করে
  • অনুমতি দিন
  • একটি অবরুদ্ধ ফোল্ডারের ভিতরে একটি নির্দিষ্ট পথ খোলে
  • ক্রল-বিলম্ব
  • কিছু বটের জন্য ধীরে ধীরে ক্রল করার অনুরোধ করে (সব বট এটি অনুসরণ করে না)

একটি ছোট ভুল মূল বিভাগ বা মূল ল্যান্ডিং পৃষ্ঠাগুলি সহ গুরুত্বপূর্ণ পৃষ্ঠাগুলিকে ব্লক করতে পারে৷

ওয়ার্ডপ্রেস অনেক ইউআরএল তৈরি করতে পারে যা এসইওকে সাহায্য করে না, যেমন অভ্যন্তরীণ সার্চ পেজ, কিছু আর্কাইভ পেজ এবং প্যারামিটার-ভিত্তিক ইউআরএল।

এমনকি ছোট সাইটগুলিতে, একটি পরিষ্কার robots.txt ফাইল একটি স্মার্ট সেটআপ।

একটি সাইটম্যাপ সার্চ ইঞ্জিনগুলিকে আপনি যে পৃষ্ঠাগুলি ক্রল করতে চান তা আবিষ্কার করতে সহায়তা করে৷

  • সাইটম্যাপ আবিষ্কার উন্নত করে
  • Robots.txt ক্রলিং অ্যাক্সেস নিয়ন্ত্রণ করে

বেশিরভাগ ওয়েবসাইট উভয়ই ব্যবহার করে উপকৃত হয়।

Robots.txt সহজ, কিন্তু এটা ক্ষমাশীল নয়।

ডিফল্ট অ্যাক্সেস সেট করুন

সমস্ত বট ডিফল্টরূপে আপনার সাইট ক্রল করতে পারে কিনা তা চয়ন করুন।

আপনার সাইটম্যাপ URL যোগ করুন

আপনার সাইটম্যাপ অন্তর্ভুক্ত করুন যাতে ক্রলাররা আপনার গুরুত্বপূর্ণ পৃষ্ঠাগুলি দ্রুত খুঁজে পেতে পারে।

অনুমোদিত পথ সাবধানে যোগ করুন

আপনি সত্যিই ক্রল করতে চান না শুধুমাত্র যা ব্লক.

/অ্যাডমিন/ অথবা /অনুসন্ধান/

প্রকাশের আগে পর্যালোচনা করুন

আপনি আপনার হোমপেজ, ব্লগ, বিভাগ পৃষ্ঠা, বা প্রধান পরিষেবা পৃষ্ঠাগুলি ব্লক করেননি তা দুবার চেক করুন৷

Robots.txt হল প্রযুক্তিগত SEO এর একটি অংশ