Wichtige Fakten
- Kategorie
- Development
- Eingabetypen
- text, textarea, number, checkbox
- Ausgabetyp
- text
- Sample-Abdeckung
- 4
- API verfügbar
- Yes
Überblick
Der Robots.txt Generator ermöglicht es Ihnen, schnell und präzise eine robots.txt-Datei zu erstellen, um Suchmaschinen-Crawler effizient zu steuern und den Zugriff auf bestimmte Bereiche Ihrer Website zu regeln.
Wann verwenden
- •Wenn Sie verhindern möchten, dass Suchmaschinen sensible oder irrelevante Verzeichnisse Ihrer Website indexieren.
- •Wenn Sie die Crawl-Frequenz für bestimmte Bots anpassen müssen, um die Serverlast zu optimieren.
- •Wenn Sie Suchmaschinen den direkten Pfad zu Ihrer XML-Sitemap mitteilen möchten, um die Indexierung zu beschleunigen.
So funktioniert es
- •Wählen Sie den gewünschten User-Agent aus, für den die Regeln gelten sollen (Standard ist '*' für alle Bots).
- •Geben Sie die Pfade ein, die für Crawler gesperrt oder explizit erlaubt werden sollen.
- •Fügen Sie optional eine Sitemap-URL und eine Crawl-Verzögerung hinzu, um das Verhalten der Bots weiter zu verfeinern.
- •Klicken Sie auf Generieren, um den fertigen Code zu erhalten, den Sie direkt in das Stammverzeichnis Ihrer Website kopieren können.
Anwendungsfälle
Beispiele
1. Standard-Konfiguration für eine Unternehmenswebsite
SEO-Manager- Hintergrund
- Eine neue Firmenwebsite soll live gehen, aber der interne Admin-Bereich und temporäre Testdateien sollen nicht in Google erscheinen.
- Problem
- Verhinderung der Indexierung von sensiblen Systempfaden.
- Verwendung
- User-Agent auf '*' setzen und die Pfade '/admin/' sowie '/temp/' unter 'Verbotene Pfade' eintragen.
- Beispielkonfiguration
-
userAgent: *, disallowPaths: /admin/, /temp/ - Ergebnis
- Eine saubere robots.txt, die Crawler von den geschützten Bereichen fernhält.
2. Optimierung für große E-Commerce-Shops
Web-Entwickler- Hintergrund
- Ein Online-Shop mit tausenden Produkten leidet unter einer zu hohen Serverlast durch zu viele gleichzeitige Crawler-Anfragen.
- Problem
- Reduzierung der Serverlast durch Crawl-Verzögerung.
- Verwendung
- Crawl-Verzögerung auf 5 Sekunden einstellen und die Sitemap-URL hinzufügen.
- Beispielkonfiguration
-
crawlDelay: 5, sitemapUrl: https://shop.de/sitemap.xml - Ergebnis
- Crawler agieren langsamer und schonen die Serverressourcen, während die Sitemap korrekt verlinkt ist.
Mit Samples testen
textVerwandte Hubs
FAQ
Was ist eine robots.txt-Datei?
Es ist eine Textdatei im Stammverzeichnis Ihrer Website, die Suchmaschinen mitteilt, welche Seiten oder Bereiche sie besuchen dürfen und welche nicht.
Kann ich verschiedene Regeln für unterschiedliche Bots festlegen?
Ja, Sie können den User-Agent spezifisch anpassen, um beispielsweise Googlebot andere Anweisungen zu geben als Bingbot.
Was bewirkt die Crawl-Verzögerung?
Sie legt fest, wie viele Sekunden ein Crawler zwischen den Anfragen warten muss, was bei hoher Serverlast hilfreich sein kann.
Muss ich die Sitemap in der robots.txt angeben?
Es ist empfehlenswert, da es Suchmaschinen hilft, Ihre Inhalte schneller zu finden und zu indexieren.
Wo speichere ich die generierte Datei?
Die Datei muss unter dem Namen 'robots.txt' im Hauptverzeichnis (Root) Ihrer Domain gespeichert werden.