Sedang dalam pengembangan

Generator Robots.txt |

Iklan

Arahan umum

Konfigurasikan perilaku default untuk semua crawler sebelum menambahkan pengaturan pengganti.

Tetapkan aturan izinkan atau blokir global untuk User-agent: *.

Batasi kecepatan crawler jika server Anda membutuhkan ruang bernapas.

Direktif host opsional untuk domain yang dicerminkan.

Satu jalur per baris. Mendukung karakter pengganti (wildcard) dan garis miring di akhir baris.

Pastikan folder-folder tertentu tetap dapat diakses oleh mesin pencari meskipun jalur yang lebih luas diblokir.

Cantumkan satu URL sitemap per baris. Tambahkan indeks sitemap tambahan jika Anda memilikinya.

Perayap umum

Aktifkan atau nonaktifkan crawler yang ingin Anda blokir sepenuhnya. Biarkan crawler tersebut tetap menggunakan aturan default di atas.

Aturan khusus

Tambahkan agen pengguna dengan arahan izinkan atau blokir yang disesuaikan, penundaan perayapan, dan petunjuk peta situs.

Salin file yang dihasilkan di atas dan unggah ke direktori utama domain Anda sebagai robots.txt.

Hasilkan file robots.txt untuk mengontrol perilaku perayapan mesin telusur.
Iklan

Daftar Isi

Robots.txt adalah file teks kecil yang memandu bot pencarian di situs Anda. Ini memberi tahu crawler area mana yang dapat mereka akses dan jalur mana yang harus mereka hindari. Ini terus berfokus pada halaman yang penting dan mengurangi kunjungan yang terbuang pada URL bernilai rendah.

Gunakan robots.txt untuk memblokir area seperti halaman admin, folder pementasan, URL pengujian, halaman filter, dan jalur duplikat. Ketika aturan Anda jelas, mesin pencari menghabiskan lebih banyak waktu di halaman penting Anda. Itu dapat membantu konten baru ditemukan lebih cepat dan tetap merayapi bersih dan dapat diprediksi.

Robots.txt adalah bagian dari standar pengecualian robot. Anda menempatkannya di:

yourdomain.com/robots.txt

Mesin pencari sering memeriksa file ini lebih awal karena memberi mereka petunjuk arah perayapan yang jelas. Jika situs Anda kecil, situs mungkin masih diindeks tanpa file robots.txt. Tetapi di situs yang lebih besar, panduan yang hilang dapat menyebabkan perayapan yang terbuang-dan penemuan halaman utama yang lebih lambat.

Satu poin penting:

  • Robots.txt mengontrol crawling
  • Itu tidak menjamin pengindeksan

Jika Anda ingin mengonfirmasi bahwa halaman dapat muncul di hasil penelusuran, gunakan pemeriksaan indeksan. Itu membantu Anda menemukan sinyal seperti noindex, sumber daya yang diblokir, atau masalah lain yang tidak robots.txt cakup .

Mesin pencari tidak merayapi setiap halaman setiap hari. Mereka merayapi berdasarkan batas dan sinyal seperti kecepatan situs, kesehatan server, dan seberapa sering konten Anda berubah.

Jika situs Anda lambat atau menampilkan error, crawler mungkin mengunjungi lebih sedikit halaman per eksekusi. Itu dapat menunda pengindeksan untuk postingan baru dan halaman yang diperbarui. Robots.txt membantu dengan mengurangi perayapan yang terbuang, sehingga bot menghabiskan lebih banyak waktu di halaman yang benar-benar Anda inginkan untuk mereka fokuskan.

Untuk hasil terbaik, gunakan robots.txt dengan peta situs:

  • Robots.txt memandu bot tentang apa yang harus di-crawl atau dilewati
  • Peta situs mencantumkan halaman yang ingin Anda crawl dan indeks

File robots.txt menggunakan beberapa arahan sederhana. Mereka mudah dibaca, tetapi Anda harus menulisnya dengan hati-hati.

  • Agen pengguna
  • Mengatur bot mana aturan berlaku
  • Melarang
  • Memblokir crawling untuk folder atau jalur
  • Izinkan
  • Membuka jalur tertentu di dalam folder yang diblokir
  • Penundaan perangkak
  • Permintaan crawling lebih lambat untuk beberapa bot (tidak semua bot mengikutinya)

Kesalahan kecil dapat memblokir halaman penting, termasuk kategori utama atau halaman arahan inti. Itulah mengapa menggunakan genset lebih aman daripada menulis semuanya secara manual.

WordPress dapat membuat banyak URL yang tidak membantu SEO, seperti halaman pencarian internal, beberapa halaman arsip, dan URL berbasis parameter. Memblokir area bernilai rendah membantu crawler menghabiskan lebih banyak waktu di halaman utama, postingan blog, dan halaman produk atau layanan Anda.

Bahkan di situs yang lebih kecil, file robots.txt yang bersih adalah pengaturan yang cerdas. Ini membuat aturan crawling Anda tetap teratur seiring berkembangnya situs.

Peta situs membantu mesin telusur menemukan halaman yang ingin Anda rayapi. Robots.txt mengontrol ke mana bot bisa pergi.

  • Peta situs meningkatkan penemuan
  • Robots.txt mengontrol akses crawling

Sebagian besar situs web mendapat manfaat dari penggunaan keduanya.

Robots.txt itu sederhana, tetapi tidak memaafkan. Satu aturan yang salah dapat memblokir halaman kunci. Generator ini membantu Anda membuat file dengan aman.

Mengatur akses default

Pilih apakah semua bot dapat meng-crawl situs Anda secara default.

Menambahkan URL peta situs Anda

Sertakan peta situs Anda sehingga crawler dapat menemukan halaman penting Anda lebih cepat.

Tambahkan jalur yang tidak diizinkan dengan hati-hati

Blokir hanya apa yang benar-benar tidak ingin Anda rangkak. Selalu mulai dengan garis miring ke depan, seperti:

/admin/ atau /search/

Tinjau sebelum dipublikasikan

Periksa kembali apakah Anda tidak memblokir beranda, blog, halaman kategori, atau halaman layanan utama Anda.

Robots.txt adalah salah satu bagian dari SEO teknis. Alat-alat ini mendukung tujuan yang sama dan membantu Anda mengonfirmasi semuanya berfungsi dengan benar:

Dokumentasi API Segera Hadir

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.