Kategorien

Robots.txt Generator

Generiert robots.txt-Dateien für Suchmaschinen-Crawler mit konfigurierbaren Regeln

Wichtige Fakten

Kategorie
Development
Eingabetypen
text, textarea, number, checkbox
Ausgabetyp
text
Sample-Abdeckung
4
API verfügbar
Yes

Überblick

Der Robots.txt Generator ermöglicht es Ihnen, schnell und präzise eine robots.txt-Datei zu erstellen, um Suchmaschinen-Crawler effizient zu steuern und den Zugriff auf bestimmte Bereiche Ihrer Website zu regeln.

Wann verwenden

  • Wenn Sie verhindern möchten, dass Suchmaschinen sensible oder irrelevante Verzeichnisse Ihrer Website indexieren.
  • Wenn Sie die Crawl-Frequenz für bestimmte Bots anpassen müssen, um die Serverlast zu optimieren.
  • Wenn Sie Suchmaschinen den direkten Pfad zu Ihrer XML-Sitemap mitteilen möchten, um die Indexierung zu beschleunigen.

So funktioniert es

  • Wählen Sie den gewünschten User-Agent aus, für den die Regeln gelten sollen (Standard ist '*' für alle Bots).
  • Geben Sie die Pfade ein, die für Crawler gesperrt oder explizit erlaubt werden sollen.
  • Fügen Sie optional eine Sitemap-URL und eine Crawl-Verzögerung hinzu, um das Verhalten der Bots weiter zu verfeinern.
  • Klicken Sie auf Generieren, um den fertigen Code zu erhalten, den Sie direkt in das Stammverzeichnis Ihrer Website kopieren können.

Anwendungsfälle

Ausschluss von Admin-Bereichen und privaten Verzeichnissen aus der Suchmaschinen-Indexierung.
Optimierung der Crawl-Effizienz durch gezielte Steuerung der Bot-Aktivitäten.
Bereitstellung der Sitemap-URL für eine verbesserte Auffindbarkeit neuer Inhalte.

Beispiele

1. Standard-Konfiguration für eine Unternehmenswebsite

SEO-Manager
Hintergrund
Eine neue Firmenwebsite soll live gehen, aber der interne Admin-Bereich und temporäre Testdateien sollen nicht in Google erscheinen.
Problem
Verhinderung der Indexierung von sensiblen Systempfaden.
Verwendung
User-Agent auf '*' setzen und die Pfade '/admin/' sowie '/temp/' unter 'Verbotene Pfade' eintragen.
Beispielkonfiguration
userAgent: *, disallowPaths: /admin/, /temp/
Ergebnis
Eine saubere robots.txt, die Crawler von den geschützten Bereichen fernhält.

2. Optimierung für große E-Commerce-Shops

Web-Entwickler
Hintergrund
Ein Online-Shop mit tausenden Produkten leidet unter einer zu hohen Serverlast durch zu viele gleichzeitige Crawler-Anfragen.
Problem
Reduzierung der Serverlast durch Crawl-Verzögerung.
Verwendung
Crawl-Verzögerung auf 5 Sekunden einstellen und die Sitemap-URL hinzufügen.
Beispielkonfiguration
crawlDelay: 5, sitemapUrl: https://shop.de/sitemap.xml
Ergebnis
Crawler agieren langsamer und schonen die Serverressourcen, während die Sitemap korrekt verlinkt ist.

Mit Samples testen

text

Verwandte Hubs

FAQ

Was ist eine robots.txt-Datei?

Es ist eine Textdatei im Stammverzeichnis Ihrer Website, die Suchmaschinen mitteilt, welche Seiten oder Bereiche sie besuchen dürfen und welche nicht.

Kann ich verschiedene Regeln für unterschiedliche Bots festlegen?

Ja, Sie können den User-Agent spezifisch anpassen, um beispielsweise Googlebot andere Anweisungen zu geben als Bingbot.

Was bewirkt die Crawl-Verzögerung?

Sie legt fest, wie viele Sekunden ein Crawler zwischen den Anfragen warten muss, was bei hoher Serverlast hilfreich sein kann.

Muss ich die Sitemap in der robots.txt angeben?

Es ist empfehlenswert, da es Suchmaschinen hilft, Ihre Inhalte schneller zu finden und zu indexieren.

Wo speichere ich die generierte Datei?

Die Datei muss unter dem Namen 'robots.txt' im Hauptverzeichnis (Root) Ihrer Domain gespeichert werden.

API-Dokumentation

Request-Endpunkt

POST /de/api/tools/robots-txt-generator

Request-Parameter

Parameter-Name Typ Erforderlich Beschreibung
userAgent text Nein -
allowPaths textarea Nein -
disallowPaths textarea Nein -
crawlDelay number Nein -
sitemapUrl text Nein -
includeComments checkbox Nein -

Antwortformat

{
  "result": "Processed text content",
  "error": "Error message (optional)",
  "message": "Notification message (optional)",
  "metadata": {
    "key": "value"
  }
}
Text: Text

MCP-Dokumentation

Fügen Sie dieses Tool zu Ihrer MCP-Server-Konfiguration hinzu:

{
  "mcpServers": {
    "elysiatools-robots-txt-generator": {
      "name": "robots-txt-generator",
      "description": "Generiert robots.txt-Dateien für Suchmaschinen-Crawler mit konfigurierbaren Regeln",
      "baseUrl": "https://elysiatools.com/mcp/sse?toolId=robots-txt-generator",
      "command": "",
      "args": [],
      "env": {},
      "isActive": true,
      "type": "sse"
    }
  }
}

Sie können mehrere Tools verketten, z.B.: `https://elysiatools.com/mcp/sse?toolId=png-to-webp,jpg-to-webp,gif-to-webp`, maximal 20 Tools.

Wenn Sie auf Probleme stoßen, kontaktieren Sie uns bitte bei [email protected]