common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt Oluşturucu |
Genel yönergeler
Katman geçersiz kılmalarından önce tüm tarayıcılar için varsayılan davranışı yapılandırın.
Kullanıcı aracısı için * genel izin verme veya engelleme kuralı belirleyin.
Sunucunuzun nefes almaya ihtiyacı varsa, tarayıcıların hızını düşürün.
Yansıtılmış etki alanları için isteğe bağlı ana bilgisayar yönergesi.
Her satırda bir yol. Joker karakterleri ve sondaki eğik çizgileri destekler.
Daha geniş yollar engellendiğinde bile belirli klasörlerin taranabilir kalmasını sağlayın.
Her satıra bir site haritası URL'si yazın. Varsa ek site haritası dizinlerini de ekleyin.
Ortak tarayıcılar
Tamamen engellemek istediğiniz tarayıcıları etkinleştirin. Varsayılan kurala bağlı kalmaları için izin verilenleri açık bırakın.
Özel kurallar
Kullanıcı aracılarına, izin verme veya engelleme yönergeleri, tarama gecikmeleri ve site haritası ipuçları ekleyin.
Henüz özel kural yok. Bir kural oluşturmak için yukarıdaki düğmeyi kullanın.
Tam veya joker karakterli kullanıcı aracısı dizesi.
Yukarıda oluşturulan dosyayı kopyalayın ve alan adınızın kök dizinine robots.txt olarak yükleyin.
İçindekiler Tablosu
Robots.txt Daha İyi Tarama ve Indeksleme için Oluşturucu
Robots.txt, sitenizdeki arama botlarını yönlendiren küçük bir metin dosyasıdır. Sürüngenlere hangi alanlara erişebileceklerini ve hangi yollardan kaçınmaları gerektiğini söylüyor. Bu, önemli sayfalara odaklanmayı sürdürür ve düşük değerli URL'lerde boşa harcan ziyaretleri azaltır.
robots.txt kullanarak yönetici sayfaları, aşamalama klasörleri, test URL'leri, sayfaları filtrelemek ve çoğaltma yolları gibi alanları engelleyin. Kurallarınız net olduğunda, arama motorları önemli sayfalarınıza daha fazla zaman ayırır. Bu, yeni içeriklerin daha hızlı keşfedilmesine ve temiz ve öngörülebilir hale gelmesine yardımcı olabilir.
SEO'da Robots.txt Ne Anlama Geliyor?
Robots.txt, robotların dışlanma standardının bir parçasıdır. Onu şu adrese koyarsınız:
yourdomain.com/robots.txt
Arama motorları genellikle bu dosyayı erken kontrol eder çünkü bu dosya onlara net tarama yönleri verir. Siteniz küçükse, robots.txt dosyası olmadan yine de indekslenebilir. Ancak daha büyük sitelerde, eksik rehberlik gereksiz taramaya ve ana sayfaların daha yavaş keşfine yol açabilir.
Önemli bir nokta:
- Robots.txt sürünmeyi kontrol ediyor
- Indeksleme garantisi oluşturmaz
Bir sayfanın arama sonuçlarında görünebileceğini doğrulamak istiyorsanız, indekslenebilirlik kontrolü kullanın. Bu, noindex, bloklanmış kaynaklar veya robots.txt kapsamadığı diğer sorunları tespit etmenize yardımcı olur.
Neden Robots.txt Sürünme Bütçesine Yardımcı Oluyor
Arama motorları her gün her sayfayı taramaz. Site hızı, sunucu sağlığı ve içeriğinizin ne sıklıkla değiştiği gibi sınırlar ve sinyallere göre tarayırlar.
Siteniz yavaş veya hata döndürüyorsa, tarayıcılar her çalışma başına daha az sayfa ziyaret edebilir. Bu, yeni gönderiler ve güncellenmiş sayfalar için indekslemenin gecikmesine neden olabilir. Robots.txt, boşa harcanan taramaları azaltarak botların gerçekten odaklanmak istedikleri sayfalara daha fazla zaman ayırmasını sağlar.
En iyi sonuçlar için robots.txt sitesitesini kullanarak sitesite:
- Robots.txt botlara neyi sürünmeleri veya atlamaları gerektiği konusunda rehberlik eder
- Site haritası, tarama ve indekslenmek istediğiniz sayfaları listeliyor
Robots.txt Bilmeniz Gereken Kurallar
Bir robots.txt dosyası birkaç basit direktifi kullanır. Okuması kolaydır, ancak dikkatlice yazmalısınız.
- Kullanıcı-ajanı
- Kuralın hangi bota uygulandığını belirleyen
- İhtan Edilmez
- Bir klasör veya yol için tarama blokları
- İzin verin
- Bloklanmış bir klasör içinde belirli bir yol açar
- Sürünme gecikmesi
- Bazı botlar için daha yavaş tarama talepleri (tüm botlar takip etmiyor)
Küçük bir hata, önemli kategoriler veya temel açılış sayfaları dahil olmak üzere önemli sayfaları engelleyebilir. Bu yüzden jeneratör kullanmak her şeyi elle yazmaktan daha güvenlidir.
WordPress Siteleri Neden Sıklıkla Robots.txt
WordPress, dahili arama sayfaları, bazı arşiv sayfaları ve parametre tabanlı URL'ler gibi SEO'ya yardımcı olmayan birçok URL oluşturabilir. Düşük değerli alanları engellemek, tarayıcıların ana sayfalarınızda, blog yazılarınızda ve ürün veya hizmet sayfalarınızda daha fazla zaman geçirmelerine yardımcı olur.
Daha küçük sitelerde bile, temiz robots.txt dosyası akıllıca bir kurulumdur. Site büyüdükçe tarama kurallarınızı düzenli tutar.
Robots.txt ve Site Haritası Farkı
Bir site haritası, arama motorlarının tarama yapmak istediğiniz sayfaları keşfetmesine yardımcı olur. Robots.txt botların nereye gidebileceğini kontrol ediyor.
- Site haritası keşfi iyileştirir
- Robots.txt tarama erişimini kontrol eder
Çoğu web sitesi her ikisini de kullanmaktan faydalanır.
Bu Jeneratörü Kullanarak Robots.txt Nasıl Oluşturulur
Robots.txt basit ama affedici değil. Yanlış bir kural anahtar sayfaları engelleyebilir. Bu oluşturucu, dosyayı güvenli bir şekilde oluşturmanıza yardımcı olur.
Varsayılan erişimi ayarla
Tüm botların varsayılan olarak sitenizi tarayıp taramayacağını seçin.
Site haritası URL'nizi ekleyin
Tarayıcıların önemli sayfalarınızı daha hızlı bulabilmesi için site haritanızı ekleyin.
Yasak yolları dikkatlice ekleyin
Sadece gerçekten sürünmek istemediğiniz şeyleri engelleyin. Her zaman öne doğru bir eğik çizgi ile başlayın, mesela:
/admin/ veya /search/
Yayından önce inceleme
Ana sayfanızı, blogunuzu, kategori sayfalarınızı veya ana hizmet sayfalarınızı engellemediğinize iki kez emin olun.
Yardımcı Olan İlgili SEO Araçları Robots.txt
Robots.txt teknik SEO'nun bir parçasıdır. Bu araçlar aynı hedefi destekler ve her şeyin doğru çalıştığını doğrulamanıza yardımcı olur:
- Site Haritası Kontrolcüsü: Site haritanızın geçerli ve botlar için kolay okunabileceğini doğrular.
- Google Index Checker: Bir sayfanın indekslenip indekslenemeyeceğini doğrular ve noindex gibi yaygın engelleyicileri işaretler.
- HTTP Durum Kodu Kontrol Et: 200, 301, 404 ve tarayıcıyı yavaşlatabilen sunucu hatalarını bulur.
- Ücretsiz Yönlendirme Kontrolcüsü: Yönlendirmelerin temiz olduğunu ve zincirlerde veya döngülerde sıkışmadığını doğrular.
- Meta Etiketler Analizi: Başlıkları, açıklamaları ve robot meta etiketlerini SEO hataları için inceler.
API Dokümantasyonu Yakında Yayınlanacak
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.