Categorias

Gerador Robots.txt

Gera arquivos robots.txt para rastreadores de mecanismos de busca com regras configuráveis

Fatos principais

Categoria
Development
Tipos de entrada
text, textarea, number, checkbox
Tipo de saída
text
Cobertura de amostras
4
API disponível
Yes

Visão geral

O Gerador de Robots.txt é uma ferramenta essencial para SEO que permite criar arquivos de configuração precisos para orientar rastreadores de mecanismos de busca sobre quais partes do seu site devem ou não ser indexadas.

Quando usar

  • Ao lançar um novo site e precisar definir quais diretórios devem ser ignorados pelos buscadores.
  • Para proteger áreas administrativas ou pastas privadas contra a indexação pública.
  • Para otimizar o orçamento de rastreamento (crawl budget) indicando o caminho do seu sitemap XML.

Como funciona

  • Defina o Agente de Usuário (User-Agent) para especificar se a regra se aplica a todos os robôs ou a um buscador específico.
  • Insira os caminhos que deseja permitir ou proibir no seu servidor.
  • Adicione o atraso de rastreamento e a URL do seu sitemap para melhorar a comunicação com os motores de busca.
  • Clique em gerar para obter o código formatado pronto para ser salvo na raiz do seu domínio.

Casos de uso

Bloqueio de diretórios de administração (ex: /admin/, /wp-admin/) para evitar indexação de painéis de controle.
Otimização de rastreamento em sites grandes, direcionando robôs para o sitemap principal.
Prevenção de conteúdo duplicado ou páginas de teste em ambientes de desenvolvimento.

Exemplos

1. Configuração Padrão de Segurança

Desenvolvedor Web
Contexto
Um novo site institucional foi publicado e precisa garantir que pastas de sistema não apareçam no Google.
Problema
Evitar que robôs acessem pastas de scripts e áreas administrativas.
Como usar
Defina o User-Agent como '*', adicione '/admin/' e '/cgi-bin/' nos caminhos proibidos e insira a URL do sitemap.
Resultado
Um arquivo robots.txt limpo que protege áreas sensíveis e guia o Google para o mapa do site.

2. Otimização de Crawl Budget

Especialista em SEO
Contexto
Um e-commerce com milhares de produtos está sendo rastreado excessivamente, causando lentidão.
Problema
Reduzir a frequência de rastreamento para economizar recursos do servidor.
Como usar
Configure o 'Atraso de Rastreamento' para 10 segundos e restrinja o acesso a filtros de busca desnecessários.
Resultado
O servidor responde melhor e os robôs focam apenas nas páginas de produtos relevantes.

Testar com amostras

text

Hubs relacionados

FAQ

O que é um arquivo robots.txt?

É um arquivo de texto simples que instrui os robôs de busca sobre quais páginas ou seções do seu site eles podem ou não acessar.

O arquivo robots.txt garante a privacidade de dados?

Não. Ele apenas solicita que os buscadores não indexem o conteúdo; arquivos sensíveis devem ser protegidos por autenticação ou criptografia.

O que acontece se eu não tiver um arquivo robots.txt?

Os mecanismos de busca assumirão que podem rastrear e indexar todo o conteúdo do seu site que for publicamente acessível.

Posso bloquear o Googlebot especificamente?

Sim, basta definir o campo 'Agente de Usuário' como 'Googlebot' e configurar as regras de permissão ou proibição desejadas.

Onde devo colocar o arquivo gerado?

O arquivo deve ser salvo como 'robots.txt' e colocado na pasta raiz do seu site (ex: seu-site.com/robots.txt).

Documentação da API

Ponto final da solicitação

POST /pt/api/tools/robots-txt-generator

Parâmetros da solicitação

Nome do parâmetro Tipo Requerido Descrição
userAgent text Não -
allowPaths textarea Não -
disallowPaths textarea Não -
crawlDelay number Não -
sitemapUrl text Não -
includeComments checkbox Não -

Formato de resposta

{
  "result": "Processed text content",
  "error": "Error message (optional)",
  "message": "Notification message (optional)",
  "metadata": {
    "key": "value"
  }
}
Texto: Texto

Documentação de MCP

Adicione este ferramenta à sua configuração de servidor MCP:

{
  "mcpServers": {
    "elysiatools-robots-txt-generator": {
      "name": "robots-txt-generator",
      "description": "Gera arquivos robots.txt para rastreadores de mecanismos de busca com regras configuráveis",
      "baseUrl": "https://elysiatools.com/mcp/sse?toolId=robots-txt-generator",
      "command": "",
      "args": [],
      "env": {},
      "isActive": true,
      "type": "sse"
    }
  }
}

Você pode encadear várias ferramentas, ex: `https://elysiatools.com/mcp/sse?toolId=png-to-webp,jpg-to-webp,gif-to-webp`, máx 20 ferramentas.

Se você encontrar algum problema, por favor, entre em contato conosco em [email protected]