Robots.txt-Generator

Erstellen Sie eine saubere robots.txt mit visuellem Regel-Builder, Live-Pruefung und Pfadtests. Direkt kopieren oder herunterladen.

1

Regeln fuer Ihre robots.txt festlegen

Waehlen Sie eine Vorlage fuer Ihre Plattform und passen Sie die Crawl-Regeln so an, dass Suchmaschinen Ihre Website kontrolliert lesen koennen.

Schritt 1a

Starten Sie mit einer Vorlage fuer WordPress, Shopify oder andere Plattformen, um schnell auf bewaehrten Regeln aufzubauen.

Schritt 1b

Passen Sie Pfade, User-Agents und Sitemaps an Ihre konkrete Situation an.

Branchenvorlagen

Schnellstart-Vorlagen fuer gaengige Plattformen und Einsatzfaelle.

WordPress

CMSAKTIV

WordPress-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 8Erlaubt: 2

Drupal

CMSAKTIV

Drupal-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 22Erlaubt: 1

Joomla

CMSAKTIV

Joomla-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 14Erlaubt: 1

Ghost

CMSAKTIV

Ghost-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 4Erlaubt: 3

Strapi

CMSAKTIV

Strapi-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 5Erlaubt: 1

Contentful

CMSAKTIV

Contentful-Vorlage fuer typische CMS-Bereiche und sensible Pfade.

Blockiert: 7Erlaubt: 1

Visueller Regel-Builder

Legen Sie Crawl-Regeln, User-Agents und Sitemap-Positionen fest.

2

Robots.txt pruefen und herunterladen

Pruefen Sie die erzeugte robots.txt, beachten Sie Hinweise und laden Sie die Datei fuer das Root-Verzeichnis Ihrer Website herunter.

Live-Vorschau

User-agent: *
Disallow: /admin/
Disallow: /private/

Sitemap: https://example.com/sitemap.xml
robots.txt
Zeilen: 5
Zeichen: 93
Groesse: 93 bytes

Best Practices:

  • Legen Sie robots.txt im Root-Verzeichnis Ihrer Website ab
  • Pruefen Sie robots.txt mit Search-Console-Tools
  • Verwenden Sie wenn moeglich konkrete Pfade statt Wildcards
  • Fuegen Sie Ihre Sitemap-URL fuer besseres Crawling hinzu
3

Robots.txt-Umsetzung testen

Nach dem Upload in das Root-Verzeichnis Ihrer Website koennen Sie pruefen, wie Suchmaschinen die Regeln fuer konkrete URLs interpretieren.

Regeln pruefen und testen

Pruefen Sie, wie Suchmaschinen Ihre robots.txt-Regeln fuer konkrete URLs und User-Agents interpretieren.

Testtipps:
  • Testen Sie erlaubte und blockierte Pfade, um die Regeln zu verifizieren
  • Allow-Regeln koennen Disallow-Regeln ueberschreiben
  • Spezifischere Regeln haben Vorrang vor allgemeinen Regeln
  • Testen Sie verschiedene User-Agents, um das Verhalten zu pruefen

Haeufige Fragen

Antworten auf haeufige Fragen zu robots.txt-Regeln, User-Agent-Steuerung, Crawl-Delay und dazu, wie sich die Datei testen und ausrollen laesst.

Sie können mit einer Vorlage für Ihre Plattform starten oder die Datei von Grund auf aufbauen. Danach definieren Sie Allow- und Disallow-Regeln, legen bei Bedarf spezifische User-Agents fest und ergänzen die Sitemap-URL. Am Ende prüfen Sie die Ausgabe und laden die fertige robots.txt herunter.

Mit Disallow verhindern Sie das Crawling bestimmter Pfade, zum Beispiel eines Admin-Bereichs. Allow erlaubt einzelne Pfade ausdrücklich und ist hilfreich, wenn Sie innerhalb einer allgemein blockierten Struktur Ausnahmen brauchen. Beide Regeln zusammen geben Ihnen präzisere Kontrolle über das Crawling.

Prüfen Sie zuerst mit dem eingebauten Tester, ob konkrete URLs erlaubt oder blockiert sind. Danach laden Sie die Datei ins Root-Verzeichnis Ihrer Website hoch und testen die finale Version zusätzlich in der Google Search Console. So sehen Sie früh, ob Regeln unbeabsichtigte Bereiche treffen.

Mit `*` erfassen Sie variable Zeichenfolgen, mit `$` markieren Sie das Ende einer URL. Damit lassen sich zum Beispiel alle PDF-Dateien oder parameterbasierte URLs gezielt steuern. Der Generator hilft Ihnen dabei, diese Muster sauber und nachvollziehbar zu formulieren.

Für die meisten Websites reicht `*`, also eine Regel für alle Crawler. Spezifische Bots wie Googlebot oder Bingbot sind nur dann sinnvoll, wenn Sie bewusst abweichende Regeln je Suchmaschine brauchen. Je einfacher die Datei bleibt, desto leichter lässt sie sich warten.

Nur wenn Bot-Traffic Ihren Server spürbar belastet. Die meisten Websites brauchen keinen Crawl Delay. Wenn Sie ihn einsetzen, starten Sie mit einem vorsichtigen Wert, weil zu strenge Einstellungen das Crawling und damit die Indexierung unnötig ausbremsen können.

Bewertungen

Aktuelle Bewertungen und Rueckmeldungen von Tool-Nutzerinnen und -Nutzern

Brauchen Sie technische SEO als stabiles System statt als Checkliste?

Ich setze technische SEO-Grundlagen für Website oder App mit Monitoring, Schema und Performance-Optimierung so um, dass sie auch bei neuen Seiten stabil bleiben.

Bester Start

Projektanfrage senden

Klare Einschätzung und nächster Schritt innerhalb von 24 Stunden

Anfrage starten

Per E-Mail starten

Kurz den Ablauf schildern und schriftlich weitermachen

Kontakt öffnen

Leitfaden anfordern

Kurzer Leitfaden zu Dashboards, Automatisierung und Umsetzungsplanung

Verwandte Ressourcen

Beiträge zu Crawling, Indexierung und technischen SEO-Systemen