Meta-Tags und Open Graph sauber vorbereiten
Technische SEO endet nicht bei robots.txt. Meta-Daten und Social-Vorschauen gehoeren zum gleichen Grundsetup.
Erstellen Sie eine saubere robots.txt mit visuellem Regel-Builder, Live-Pruefung und Pfadtests. Direkt kopieren oder herunterladen.
Waehlen Sie eine Vorlage fuer Ihre Plattform und passen Sie die Crawl-Regeln so an, dass Suchmaschinen Ihre Website kontrolliert lesen koennen.
Starten Sie mit einer Vorlage fuer WordPress, Shopify oder andere Plattformen, um schnell auf bewaehrten Regeln aufzubauen.
Passen Sie Pfade, User-Agents und Sitemaps an Ihre konkrete Situation an.
Schnellstart-Vorlagen fuer gaengige Plattformen und Einsatzfaelle.
WordPress-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Drupal-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Joomla-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Ghost-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Strapi-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Contentful-Vorlage fuer typische CMS-Bereiche und sensible Pfade.
Legen Sie Crawl-Regeln, User-Agents und Sitemap-Positionen fest.
Pruefen Sie die erzeugte robots.txt, beachten Sie Hinweise und laden Sie die Datei fuer das Root-Verzeichnis Ihrer Website herunter.
User-agent: * Disallow: /admin/ Disallow: /private/ Sitemap: https://example.com/sitemap.xml
Nach dem Upload in das Root-Verzeichnis Ihrer Website koennen Sie pruefen, wie Suchmaschinen die Regeln fuer konkrete URLs interpretieren.
Pruefen Sie, wie Suchmaschinen Ihre robots.txt-Regeln fuer konkrete URLs und User-Agents interpretieren.
Antworten auf haeufige Fragen zu robots.txt-Regeln, User-Agent-Steuerung, Crawl-Delay und dazu, wie sich die Datei testen und ausrollen laesst.
Sie können mit einer Vorlage für Ihre Plattform starten oder die Datei von Grund auf aufbauen. Danach definieren Sie Allow- und Disallow-Regeln, legen bei Bedarf spezifische User-Agents fest und ergänzen die Sitemap-URL. Am Ende prüfen Sie die Ausgabe und laden die fertige robots.txt herunter.
Mit Disallow verhindern Sie das Crawling bestimmter Pfade, zum Beispiel eines Admin-Bereichs. Allow erlaubt einzelne Pfade ausdrücklich und ist hilfreich, wenn Sie innerhalb einer allgemein blockierten Struktur Ausnahmen brauchen. Beide Regeln zusammen geben Ihnen präzisere Kontrolle über das Crawling.
Prüfen Sie zuerst mit dem eingebauten Tester, ob konkrete URLs erlaubt oder blockiert sind. Danach laden Sie die Datei ins Root-Verzeichnis Ihrer Website hoch und testen die finale Version zusätzlich in der Google Search Console. So sehen Sie früh, ob Regeln unbeabsichtigte Bereiche treffen.
Mit `*` erfassen Sie variable Zeichenfolgen, mit `$` markieren Sie das Ende einer URL. Damit lassen sich zum Beispiel alle PDF-Dateien oder parameterbasierte URLs gezielt steuern. Der Generator hilft Ihnen dabei, diese Muster sauber und nachvollziehbar zu formulieren.
Für die meisten Websites reicht `*`, also eine Regel für alle Crawler. Spezifische Bots wie Googlebot oder Bingbot sind nur dann sinnvoll, wenn Sie bewusst abweichende Regeln je Suchmaschine brauchen. Je einfacher die Datei bleibt, desto leichter lässt sie sich warten.
Nur wenn Bot-Traffic Ihren Server spürbar belastet. Die meisten Websites brauchen keinen Crawl Delay. Wenn Sie ihn einsetzen, starten Sie mit einem vorsichtigen Wert, weil zu strenge Einstellungen das Crawling und damit die Indexierung unnötig ausbremsen können.
Aktuelle Bewertungen und Rueckmeldungen von Tool-Nutzerinnen und -Nutzern
Ich setze technische SEO-Grundlagen für Website oder App mit Monitoring, Schema und Performance-Optimierung so um, dass sie auch bei neuen Seiten stabil bleiben.
Klare Einschätzung und nächster Schritt innerhalb von 24 Stunden
Anfrage startenKurzer Leitfaden zu Dashboards, Automatisierung und Umsetzungsplanung
Beiträge zu Crawling, Indexierung und technischen SEO-Systemen
Praxisnahe Hinweise zu technischer SEO, robots.txt-Optimierung und einer sauberen Crawl-Steuerung.
Technische SEO endet nicht bei robots.txt. Meta-Daten und Social-Vorschauen gehoeren zum gleichen Grundsetup.
Titel, Beschreibungen und Suchergebnis-Darstellung testen, bevor Seiten indexiert werden.
Wenn Informationsarchitektur, Indexierung und Conversion-Pfade von Anfang an zusammenpassen sollen.
Kurze, direkt nutzbare Hinweise zu internen Tools, Datenintegration und sicherem KI-Einsatz. Kein Spam. Jederzeit abbestellbar.