Generator Robots.txt |
Arahan umum
Konfigurasikan perilaku default untuk semua crawler sebelum menambahkan pengaturan pengganti.
Tetapkan aturan izinkan atau blokir global untuk User-agent: *.
Batasi kecepatan crawler jika server Anda membutuhkan ruang bernapas.
Direktif host opsional untuk domain yang dicerminkan.
Satu jalur per baris. Mendukung karakter pengganti (wildcard) dan garis miring di akhir baris.
Pastikan folder-folder tertentu tetap dapat diakses oleh mesin pencari meskipun jalur yang lebih luas diblokir.
Cantumkan satu URL sitemap per baris. Tambahkan indeks sitemap tambahan jika Anda memilikinya.
Perayap umum
Aktifkan atau nonaktifkan crawler yang ingin Anda blokir sepenuhnya. Biarkan crawler tersebut tetap menggunakan aturan default di atas.
Aturan khusus
Tambahkan agen pengguna dengan arahan izinkan atau blokir yang disesuaikan, penundaan perayapan, dan petunjuk peta situs.
Belum ada aturan khusus. Gunakan tombol di atas untuk membuat aturan khusus.
String user-agent yang tepat atau wildcard.
Salin file yang dihasilkan di atas dan unggah ke direktori utama domain Anda sebagai robots.txt.
Daftar Isi
Robots.txt generator untuk perayapan dan pengindeksan yang lebih baik
Robots.txt adalah file teks kecil yang memandu bot pencarian di situs Anda. Ini memberi tahu crawler area mana yang dapat mereka akses dan jalur mana yang harus mereka hindari. Ini terus berfokus pada halaman yang penting dan mengurangi kunjungan yang terbuang pada URL bernilai rendah.
Gunakan robots.txt untuk memblokir area seperti halaman admin, folder pementasan, URL pengujian, halaman filter, dan jalur duplikat. Ketika aturan Anda jelas, mesin pencari menghabiskan lebih banyak waktu di halaman penting Anda. Itu dapat membantu konten baru ditemukan lebih cepat dan tetap merayapi bersih dan dapat diprediksi.
Apa Arti Robots.txt dalam SEO
Robots.txt adalah bagian dari standar pengecualian robot. Anda menempatkannya di:
yourdomain.com/robots.txt
Mesin pencari sering memeriksa file ini lebih awal karena memberi mereka petunjuk arah perayapan yang jelas. Jika situs Anda kecil, situs mungkin masih diindeks tanpa file robots.txt. Tetapi di situs yang lebih besar, panduan yang hilang dapat menyebabkan perayapan yang terbuang-dan penemuan halaman utama yang lebih lambat.
Satu poin penting:
- Robots.txt mengontrol crawling
- Itu tidak menjamin pengindeksan
Jika Anda ingin mengonfirmasi bahwa halaman dapat muncul di hasil penelusuran, gunakan pemeriksaan indeksan. Itu membantu Anda menemukan sinyal seperti noindex, sumber daya yang diblokir, atau masalah lain yang tidak robots.txt cakup .
Mengapa Robots.txt Membantu Dengan Anggaran Crawl
Mesin pencari tidak merayapi setiap halaman setiap hari. Mereka merayapi berdasarkan batas dan sinyal seperti kecepatan situs, kesehatan server, dan seberapa sering konten Anda berubah.
Jika situs Anda lambat atau menampilkan error, crawler mungkin mengunjungi lebih sedikit halaman per eksekusi. Itu dapat menunda pengindeksan untuk postingan baru dan halaman yang diperbarui. Robots.txt membantu dengan mengurangi perayapan yang terbuang, sehingga bot menghabiskan lebih banyak waktu di halaman yang benar-benar Anda inginkan untuk mereka fokuskan.
Untuk hasil terbaik, gunakan robots.txt dengan peta situs:
- Robots.txt memandu bot tentang apa yang harus di-crawl atau dilewati
- Peta situs mencantumkan halaman yang ingin Anda crawl dan indeks
Robots.txt Aturan yang Harus Anda Ketahui
File robots.txt menggunakan beberapa arahan sederhana. Mereka mudah dibaca, tetapi Anda harus menulisnya dengan hati-hati.
- Agen pengguna
- Mengatur bot mana aturan berlaku
- Melarang
- Memblokir crawling untuk folder atau jalur
- Izinkan
- Membuka jalur tertentu di dalam folder yang diblokir
- Penundaan perangkak
- Permintaan crawling lebih lambat untuk beberapa bot (tidak semua bot mengikutinya)
Kesalahan kecil dapat memblokir halaman penting, termasuk kategori utama atau halaman arahan inti. Itulah mengapa menggunakan genset lebih aman daripada menulis semuanya secara manual.
Mengapa Situs WordPress Sering Membutuhkan Robots.txt
WordPress dapat membuat banyak URL yang tidak membantu SEO, seperti halaman pencarian internal, beberapa halaman arsip, dan URL berbasis parameter. Memblokir area bernilai rendah membantu crawler menghabiskan lebih banyak waktu di halaman utama, postingan blog, dan halaman produk atau layanan Anda.
Bahkan di situs yang lebih kecil, file robots.txt yang bersih adalah pengaturan yang cerdas. Ini membuat aturan crawling Anda tetap teratur seiring berkembangnya situs.
Perbedaan Robots.txt dan Peta Situs
Peta situs membantu mesin telusur menemukan halaman yang ingin Anda rayapi. Robots.txt mengontrol ke mana bot bisa pergi.
- Peta situs meningkatkan penemuan
- Robots.txt mengontrol akses crawling
Sebagian besar situs web mendapat manfaat dari penggunaan keduanya.
Cara Membuat Robots.txt Menggunakan Generator Ini
Robots.txt itu sederhana, tetapi tidak memaafkan. Satu aturan yang salah dapat memblokir halaman kunci. Generator ini membantu Anda membuat file dengan aman.
Mengatur akses default
Pilih apakah semua bot dapat meng-crawl situs Anda secara default.
Menambahkan URL peta situs Anda
Sertakan peta situs Anda sehingga crawler dapat menemukan halaman penting Anda lebih cepat.
Tambahkan jalur yang tidak diizinkan dengan hati-hati
Blokir hanya apa yang benar-benar tidak ingin Anda rangkak. Selalu mulai dengan garis miring ke depan, seperti:
/admin/ atau /search/
Tinjau sebelum dipublikasikan
Periksa kembali apakah Anda tidak memblokir beranda, blog, halaman kategori, atau halaman layanan utama Anda.
Alat SEO Terkait yang Bekerja Dengan Baik Dengan Robots.txt
Robots.txt adalah salah satu bagian dari SEO teknis. Alat-alat ini mendukung tujuan yang sama dan membantu Anda mengonfirmasi semuanya berfungsi dengan benar:
- Pemeriksa Peta Situs: Mengonfirmasi peta situs Anda valid dan mudah dibaca oleh bot.
- Pemeriksa Indeks Google: Memverifikasi apakah halaman dapat diindeks dan menandai pemblokir umum seperti noindex.
- Periksa Kode Status HTTP: Menemukan 200, 301, 404, dan kesalahan server yang dapat memperlambat perayapan .
- Pemeriksa Pengalihan Gratis: Mengonfirmasi pengalihan bersih dan tidak terjebak dalam rantai atau loop.
- Analisis Meta Tag: Meninjau judul, deskripsi, dan tag meta robot untuk kesalahan SEO.
Dokumentasi API Segera Hadir
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.