In Entwicklung

Robots.txt-Generator |

Werbung

Allgemeine Richtlinien

Konfigurieren Sie das Standardverhalten für alle Crawler, bevor Sie die Überschreibungen anwenden.

Legen Sie eine globale Zulassungs- oder Blockierungsregel für User-Agent fest: *.

Drosseln Sie die Leistung von Crawlern, wenn Ihr Server mehr Spielraum benötigt.

Optionale Host-Direktive für gespiegelte Domains.

Ein Pfad pro Zeile. Unterstützt Platzhalter und abschließende Schrägstriche.

Stellen Sie sicher, dass bestimmte Ordner auch dann noch durchsuchbar bleiben, wenn allgemeinere Pfade blockiert sind.

Geben Sie pro Zeile eine Sitemap-URL an. Fügen Sie gegebenenfalls weitere Sitemap-Indizes hinzu.

Häufige Kriechtiere

Aktivieren oder deaktivieren Sie die Crawler, die Sie vollständig blockieren möchten. Alternativ können Sie die oben genannte Standardregel für die übrigen Crawler beibehalten.

Benutzerdefinierte Regeln

Fügen Sie Benutzeragenten mit maßgeschneiderten Zulassungs- oder Blockierungsanweisungen, Crawling-Verzögerungen und Sitemap-Hinweisen hinzu.

Kopieren Sie die oben generierte Datei und laden Sie sie als robots.txt in das Stammverzeichnis Ihrer Domain hoch.

Generieren Sie robots.txt-Dateien, um das Crawling-Verhalten von Suchmaschinen zu steuern.
Werbung

Inhaltsverzeichnis

Robots.txt ist eine kleine Textdatei, die Suchbots auf Ihrer Seite anleitet. Es sagt Crawlern, welche Bereiche sie erreichen können und welche Wege sie meiden sollten. Dadurch konzentriert sich das Crawling auf relevante Seiten und reduziert verschwendete Besuche auf niedrigwertigen URLs.

Nutze robots.txt, um Bereiche wie Admin-Seiten, Staging Ordner, Test-URLs, Filterseiten und doppelte Pfade zu blockieren. Wenn Ihre Regeln klar sind, verbringen Suchmaschinen mehr Zeit mit Ihren wichtigen Seiten. Das kann helfen, neue Inhalte schneller zu entdecken und das Crawling sauber und vorhersehbar zu halten.

Robots.txt ist Teil des Ausschlussstandards für Roboter. Du platzierst es bei:

yourdomain.com/robots.txt

Suchmaschinen überprüfen diese Datei oft früh, weil sie ihnen klare Crawling-Anweisungen gibt. Wenn deine Seite klein ist, kann sie trotzdem ohne eine robots.txt-Datei indexiert werden. Aber auf größeren Seiten kann fehlende Anleitung zu verschwendemendem Crawling und langsamerer Entdeckung wichtiger Seiten führen.

Ein wichtiger Punkt:

  • Robots.txt Steuerungen kriechen
  • Es garantiert keine Indexierung

Wenn Sie sicherstellen möchten, dass eine Seite in den Suchergebnissen erscheinen kann, verwenden Sie eine Indexierbarkeitsprüfung. Das hilft dir, Signale wie Noindex, blockierte Ressourcen oder andere Probleme zu erkennen, die robots.txt nicht abdeckt.

Suchmaschinen crawlen nicht jede Seite jeden Tag. Sie crawlen basierend auf Limits und Signalen wie Site-Geschwindigkeit, Serverzustand und wie oft sich Ihre Inhalte ändern.

Wenn Ihre Seite langsam ist oder Fehler zurückgibt, besuchen Crawler möglicherweise weniger Seiten pro Durchlauf. Das kann die Indexierung neuer Beiträge und aktualisierter Seiten verzögern. Robots.txt hilft, verschwendete Crawls zu reduzieren, sodass Bots mehr Zeit auf den Seiten verbringen, auf die sie sich eigentlich konzentrieren sollen.

Für beste Ergebnisse verwenden Sie robots.txt mit einer Sitemap:

  • Robots.txt Bots anleiten, was sie crawlen oder überspringen sollen
  • Sitemap listet die Seiten auf, die du crawlen und indexieren möchtest

Eine robots.txt-Datei verwendet ein paar einfache Direktiven. Sie sind leicht zu lesen, aber du musst sie sorgfältig schreiben.

  • User-Agent
  • Bestimmt, auf welchen Bot die Regel angewendet wird
  • Nicht zulässig
  • Blöcke, die nach einem Ordner oder Pfad crawlen
  • Erlauben
  • Öffnet einen bestimmten Pfad innerhalb eines blockierten Ordners
  • Kriechverzögerung
  • Bittet um langsameres Crawlen für einige Bots (nicht alle Bots folgen ihm)

Ein kleiner Fehler kann wichtige Seiten blockieren, einschließlich wichtiger Kategorien oder Kern-Landingpages. Deshalb ist die Nutzung eines Generators sicherer, als alles manuell zu schreiben.

WordPress kann viele URLs erstellen, die SEO nicht unterstützen, wie interne Suchseiten, einige Archivseiten und parameterbasierte URLs. Das Blockieren von Bereichen mit geringem Wert hilft Crawlern, mehr Zeit auf Ihren Hauptseiten, Blogbeiträgen und Produkt- oder Dienstleistungsseiten zu verbringen.

Selbst auf kleineren Seiten ist eine saubere robots.txt-Datei eine kluge Lösung. Es hält deine Crawl-Regeln organisiert, während die Seite wächst.

Eine Sitemap hilft Suchmaschinen, die Seiten zu entdecken, die Sie gecrawlt haben möchten. Robots.txt steuert, wohin Bots gehen können.

  • Sitemap verbessert die Entdeckung
  • Robots.txt steuert den Zugang zum Crawling

Die meisten Websites profitieren davon, beides zu nutzen.

Robots.txt ist einfach, aber nicht verzeihend. Eine falsche Regel kann Schlüsselseiten blockieren. Dieser Generator hilft dir, die Datei sicher zu erstellen.

Standardzugriff festlegen

Wählen Sie aus, ob alle Bots Ihre Seite standardmäßig crawlen können.

Fügen Sie Ihre Sitemap-URL hinzu

Füge deine Sitemap hinzu, damit Crawler deine wichtigen Seiten schneller finden können.

Füge verbotene Wege vorsichtig hinzu

Blockiere nur das, was du wirklich nicht gekrabbelt haben möchtest. Fang immer mit einem Vorwärtsstriche an, wie:

/admin/ oder /search/

Überprüfung vor der Veröffentlichung

Überprüfen Sie nochmal, dass Sie Ihre Homepage, Ihren Blog, Ihre Kategorienseiten oder die Hauptseiten des Dienstes nicht blockiert haben.

Robots.txt ist ein Teil der technischen SEO. Diese Tools unterstützen dasselbe Ziel und helfen Ihnen, sicherzustellen, dass alles korrekt funktioniert:

API-Dokumentation folgt in Kürze

Documentation for this tool is being prepared. Please check back later or visit our full API documentation.