vextil
Zurück zu SEO Tools

Robots.txt Generator

Erstelle eine robots.txt Datei für deine Website. Steuere, welche Seiten Suchmaschinen crawlen dürfen und welche nicht.

Grundeinstellungen

* bedeutet alle Suchmaschinen

Pfad-Regeln
Ein Pfad pro Zeile
Erweiterte Optionen

Zeit zwischen Anfragen (optional)

Generierte robots.txt
Als robots.txt speichern
User-agent: *
Allow: /
So funktioniert's
  1. 1Wählen Sie Ihre robots.txt Einstellungen
  2. 2Fügen Sie Sitemap-URL hinzu
  3. 3Kopieren Sie die generierte robots.txt
Funktionen
  • robots.txt Generator

    Erstellt robots.txt Dateien für Suchmaschinen-Crawler.

  • User-Agent Regeln

    Legen Sie Regeln für verschiedene Bots fest (Google, Bing, etc.).

  • Allow/Disallow

    Erlauben oder verbieten Sie Zugriff auf bestimmte Pfade.

  • Sitemap Verweis

    Fügen Sie automatisch Ihre Sitemap-URL hinzu.

Häufige Fragen

Was macht eine robots.txt?

Sie teilt Suchmaschinen mit, welche Seiten indexiert werden dürfen und welche nicht.

Wo muss die robots.txt liegen?

Im Root-Verzeichnis Ihrer Domain: https://example.com/robots.txt

Kann ich verschiedene Regeln für verschiedene Bots haben?

Ja, Sie können spezifische Regeln für Googlebot, Bingbot, etc. definieren.

Hinweis: Die gesamte Verarbeitung erfolgt in deinem Browser. Deine Dateien werden nicht auf einen Server hochgeladen.