Robots.txt Generator
Erstelle eine robots.txt Datei für deine Website. Steuere, welche Seiten Suchmaschinen crawlen dürfen und welche nicht.
Grundeinstellungen
* bedeutet alle Suchmaschinen
Pfad-Regeln
Ein Pfad pro Zeile
Erweiterte Optionen
Zeit zwischen Anfragen (optional)
Generierte robots.txt
Als robots.txt speichern
User-agent: * Allow: /
So funktioniert's
- 1Wählen Sie Ihre robots.txt Einstellungen
- 2Fügen Sie Sitemap-URL hinzu
- 3Kopieren Sie die generierte robots.txt
Funktionen
- robots.txt Generator
Erstellt robots.txt Dateien für Suchmaschinen-Crawler.
- User-Agent Regeln
Legen Sie Regeln für verschiedene Bots fest (Google, Bing, etc.).
- Allow/Disallow
Erlauben oder verbieten Sie Zugriff auf bestimmte Pfade.
- Sitemap Verweis
Fügen Sie automatisch Ihre Sitemap-URL hinzu.
Häufige Fragen
Was macht eine robots.txt?
Sie teilt Suchmaschinen mit, welche Seiten indexiert werden dürfen und welche nicht.
Wo muss die robots.txt liegen?
Im Root-Verzeichnis Ihrer Domain: https://example.com/robots.txt
Kann ich verschiedene Regeln für verschiedene Bots haben?
Ja, Sie können spezifische Regeln für Googlebot, Bingbot, etc. definieren.
Ähnliche Tools
Hinweis: Die gesamte Verarbeitung erfolgt in deinem Browser. Deine Dateien werden nicht auf einen Server hochgeladen.