Catégories

Générateur Robots.txt

Génère des fichiers robots.txt pour les robots des moteurs de recherche avec des règles configurables

Points clés

Catégorie
Development
Types d’entrée
text, textarea, number, checkbox
Type de sortie
text
Couverture des échantillons
4
API disponible
Yes

Vue d’ensemble

Le générateur de fichiers robots.txt vous permet de créer facilement des directives précises pour les robots d'indexation, garantissant que les moteurs de recherche explorent votre site web selon vos préférences.

Quand l’utiliser

  • Lors de la mise en ligne d'un nouveau site web pour définir les zones accessibles aux moteurs de recherche.
  • Pour empêcher l'indexation de répertoires sensibles ou privés comme les pages d'administration.
  • Pour optimiser le budget de crawl en indiquant aux robots l'emplacement de votre sitemap XML.

Comment ça marche

  • Saisissez l'agent utilisateur cible, tel que '*' pour tous les robots ou un nom spécifique comme 'Googlebot'.
  • Définissez les chemins d'accès autorisés ou interdits en les séparant par des virgules.
  • Configurez des options avancées comme le délai d'indexation ou l'URL de votre sitemap.
  • Générez instantanément le fichier texte prêt à être placé à la racine de votre serveur.

Cas d’usage

Masquer les répertoires de gestion et les fichiers temporaires aux moteurs de recherche.
Indiquer aux robots l'emplacement exact de votre sitemap pour une indexation efficace.
Restreindre la fréquence de crawl pour réduire la charge sur votre serveur.

Exemples

1. Configuration standard pour un site vitrine

Webmaster
Contexte
Un site vitrine simple souhaite être indexé par tous les moteurs de recherche tout en protégeant son interface d'administration.
Problème
Empêcher l'accès au dossier /admin/ et déclarer le sitemap.
Comment l’utiliser
Utilisez '*' comme agent utilisateur, ajoutez '/admin/' dans les chemins interdits et renseignez l'URL du sitemap.
Configuration d’exemple
userAgent: *, disallowPaths: /admin/, sitemapUrl: https://exemple.com/sitemap.xml
Résultat
Un fichier robots.txt propre qui autorise l'indexation globale tout en sécurisant les zones privées.

Tester avec des échantillons

text

Hubs associés

FAQ

Qu'est-ce qu'un fichier robots.txt ?

C'est un fichier texte placé à la racine d'un site web qui indique aux robots des moteurs de recherche quelles pages ils sont autorisés ou non à explorer.

Le fichier robots.txt empêche-t-il l'indexation ?

Il empêche l'exploration, mais ne garantit pas à 100 % que la page ne sera pas indexée si elle est liée ailleurs sur le web.

Que signifie l'agent utilisateur '*' ?

L'astérisque '*' est un caractère générique qui s'applique à tous les robots d'indexation des moteurs de recherche.

Puis-je ajouter plusieurs sitemaps ?

Oui, vous pouvez spécifier l'URL de votre sitemap principal pour aider les moteurs de recherche à découvrir vos contenus plus rapidement.

Où dois-je placer le fichier généré ?

Le fichier doit être nommé 'robots.txt' et placé à la racine de votre domaine (ex: monsite.com/robots.txt).

Documentation de l'API

Point de terminaison de la requête

POST /fr/api/tools/robots-txt-generator

Paramètres de la requête

Nom du paramètre Type Requis Description
userAgent text Non -
allowPaths textarea Non -
disallowPaths textarea Non -
crawlDelay number Non -
sitemapUrl text Non -
includeComments checkbox Non -

Format de réponse

{
  "result": "Processed text content",
  "error": "Error message (optional)",
  "message": "Notification message (optional)",
  "metadata": {
    "key": "value"
  }
}
Texte: Texte

Documentation de MCP

Ajoutez cet outil à votre configuration de serveur MCP:

{
  "mcpServers": {
    "elysiatools-robots-txt-generator": {
      "name": "robots-txt-generator",
      "description": "Génère des fichiers robots.txt pour les robots des moteurs de recherche avec des règles configurables",
      "baseUrl": "https://elysiatools.com/mcp/sse?toolId=robots-txt-generator",
      "command": "",
      "args": [],
      "env": {},
      "isActive": true,
      "type": "sse"
    }
  }
}

Vous pouvez chaîner plusieurs outils, par ex.: `https://elysiatools.com/mcp/sse?toolId=png-to-webp,jpg-to-webp,gif-to-webp`, max 20 outils.

Si vous rencontrez des problèmes, veuillez nous contacter à [email protected]