common.you_need_to_be_loggedin_to_add_tool_in_favorites
Robots.txt Oluşturucu |
Genel yönergeler
Katman geçersiz kılmalarından önce tüm tarayıcılar için varsayılan davranışı yapılandırın.
Kullanıcı aracısı için * genel izin verme veya engelleme kuralı belirleyin.
Sunucunuzun nefes almaya ihtiyacı varsa, tarayıcıların hızını düşürün.
Yansıtılmış etki alanları için isteğe bağlı ana bilgisayar yönergesi.
Her satırda bir yol. Joker karakterleri ve sondaki eğik çizgileri destekler.
Daha geniş yollar engellendiğinde bile belirli klasörlerin taranabilir kalmasını sağlayın.
Her satıra bir site haritası URL'si yazın. Varsa ek site haritası dizinlerini de ekleyin.
Ortak tarayıcılar
Tamamen engellemek istediğiniz tarayıcıları etkinleştirin. Varsayılan kurala bağlı kalmaları için izin verilenleri açık bırakın.
Özel kurallar
Kullanıcı aracılarına, izin verme veya engelleme yönergeleri, tarama gecikmeleri ve site haritası ipuçları ekleyin.
Henüz özel kural yok. Bir kural oluşturmak için yukarıdaki düğmeyi kullanın.
Tam veya joker karakterli kullanıcı aracısı dizesi.
Yukarıda oluşturulan dosyayı kopyalayın ve alan adınızın kök dizinine robots.txt olarak yükleyin.
Daha İyi Tarama ve Dizine Ekleme için Robots.txt Oluşturucu
Robots.txt, sitenizdeki arama botlarına rehberlik eden küçük bir metin dosyasıdır.
Yönetici sayfaları, hazırlama klasörleri, test URL'leri, filtre sayfaları ve yinelenen yollar gibi alanları engellemek için robots.txt dosyasını kullanın.
SEO'da Robots.txt Ne Anlama Geliyor?
Robots.txt, robotları hariç tutma standardının bir parçasıdır.
alaniniz.com/robots.txt
Arama motorları genellikle bu dosyayı erkenden kontrol eder çünkü bu dosya onlara net tarama talimatları verir.
Önemli bir nokta:
- Robots.txt tarama işlemini kontrol eder
- dizine eklemeyi garanti etmez
Bir sayfanın arama sonuçlarında görünebileceğini doğrulamak istiyorsanız dizine eklenebilirlik kontrolü kullanın.
Robots.txt Neden Tarama Bütçesine Yardımcı Olur?
Arama motorları her gün her sayfayı taramaz.
Siteniz yavaşsa veya hata döndürüyorsa tarayıcılar çalıştırma başına daha az sayfa ziyaret edebilir.
En iyi sonuçları elde etmek için robots.txt dosyasını bir site haritasıyla birlikte kullanın:
- Robots.txt botlara neyi tarayacakları veya atlayacakları konusunda rehberlik eder
- Site haritası taranmasını ve dizine eklenmesini istediğiniz sayfaları listeler
Bilmeniz Gereken Robots.txt Kuralları
Bir robots.txt dosyası birkaç basit yönergeyi kullanır.
- Kullanıcı aracısı
- Kuralın hangi bota uygulanacağını ayarlar
- İzin verme
- Bir klasör veya yol için taramayı engeller
- İzin ver
- Engellenen bir klasörün içinde belirli bir yolu açar
- Tarama gecikmesi
- Bazı botlar için daha yavaş tarama isteğinde bulunur (tüm botlar bunu takip etmez)
Küçük bir hata, anahtar kategoriler veya temel açılış sayfaları da dahil olmak üzere önemli sayfaları engelleyebilir.
Neden WordPress Siteleri Çoğunlukla Robots.txt'ye İhtiyaç Duyar?
WordPress, dahili arama sayfaları, bazı arşiv sayfaları ve parametre tabanlı URL'ler gibi SEO'ya yardımcı olmayan birçok URL oluşturabilir.
Daha küçük sitelerde bile temiz bir robots.txt dosyası akıllı bir kurulumdur.
Robots.txt ve Site Haritası Farkı
Site haritası, arama motorlarının taranmasını istediğiniz sayfaları keşfetmesine yardımcı olur.
- Site Haritası keşfi iyileştirir
- Robots.txt tarama erişimini kontrol eder
Çoğu web sitesi her ikisini de kullanmanın faydasını görür.
Bu Oluşturucuyu Kullanarak Robots.txt Nasıl Oluşturulur
Robots.txt basittir ancak affedici değildir.
Varsayılan erişimi ayarla
Tüm botların sitenizi varsayılan olarak tarayıp tarayamayacağını seçin.
Site haritası URL'nizi ekleyin
Tarayıcıların önemli sayfalarınızı daha hızlı bulabilmesi için site haritanızı ekleyin.
İzin verilmeyen yolları dikkatlice ekleyin
Yalnızca gerçekten taranmasını istemediğiniz şeyleri engelleyin.
/admin/ veya /arama/
Yayınlamadan önce inceleyin
Ana sayfanızı, blogunuzu, kategori sayfalarınızı veya ana hizmet sayfalarınızı engellemediğinizi bir kez daha kontrol edin.
Robots.txt ile İyi Çalışan İlgili SEO Araçları
Robots.txt, teknik SEO'nun bir parçasıdır.
- Site Haritası Denetleyicisi: Site haritanızın geçerli olduğunu ve botlar için okunması kolay olduğunu doğrular.
- Google Dizin Denetleyicisi: Bir sayfanın dizine eklenip eklenemeyeceğini doğrular ve noindex gibi yaygın engelleyicileri işaretler.
- HTTP Durum Kodunu Kontrol Edin: Taramayı yavaşlatabilecek 200, 301, 404 ve sunucu hatalarını bulur.
- Ücretsiz Yönlendirme Denetleyicisi: Yönlendirmelerin temiz olduğunu ve zincirlere veya döngülere takılıp kalmadığını doğrular.
- Meta Etiket Analizi: Başlıkları, açıklamaları ve robot meta etiketlerini SEO hatalarına karşı inceler.