分类

Robots.txt生成器

为搜索引擎爬虫生成robots.txt文件,支持可配置规则

关键信息

分类
Development
输入类型
text, textarea, number, checkbox
输出类型
text
样本覆盖
4
支持 API
Yes

概览

Robots.txt生成器是一款高效的SEO辅助工具,旨在帮助网站管理员快速创建符合标准的robots.txt文件,通过配置爬虫访问权限、设置抓取延迟及关联站点地图,有效优化搜索引擎对网站内容的抓取效率。

适用场景

  • 新网站上线前,需要明确告知搜索引擎哪些页面可以被抓取。
  • 需要屏蔽后台管理页面、临时文件或敏感目录,防止被搜索引擎索引。
  • 希望通过设置爬取延迟来减轻服务器负载,或优化大型网站的抓取优先级。

工作原理

  • 在“用户代理”字段指定目标爬虫,默认使用通配符“*”匹配所有搜索引擎。
  • 在“允许路径”和“禁止路径”中输入对应的目录或文件路径,支持批量添加。
  • 根据需求设置爬取延迟(Crawl-delay)及站点地图(Sitemap)URL。
  • 点击生成按钮,即可获得规范的robots.txt文本内容,直接保存并上传至网站根目录即可生效。

使用场景

屏蔽敏感目录:防止搜索引擎抓取后台管理系统、临时备份文件或私有数据目录。
优化抓取预算:通过禁止抓取无关的脚本、样式表或重复页面,让爬虫更专注于核心内容。
引导爬虫索引:通过添加Sitemap URL,帮助搜索引擎更快速、准确地发现网站的所有页面。

用户案例

1. 标准企业网站配置

网站管理员
背景原因
公司官网刚上线,希望搜索引擎抓取主要页面,但要屏蔽后台管理入口。
解决问题
需要快速生成一份标准的robots.txt文件,防止敏感路径泄露。
如何使用
在工具中设置User-agent为*,在禁止路径中填入/admin/,并填入站点地图地址。
示例配置
userAgent: *, disallowPaths: /admin/, sitemapUrl: https://example.com/sitemap.xml
效果
生成了包含禁止访问后台规则及站点地图索引的robots.txt文件。

2. 大型电商网站爬取优化

SEO优化师
背景原因
电商网站页面数量巨大,服务器负载较高,需要限制爬虫的抓取频率。
解决问题
爬虫抓取过于频繁导致服务器响应变慢,需要设置合理的抓取延迟。
如何使用
设置User-agent为*,将爬取延迟设置为10秒,并禁止抓取临时搜索结果页。
示例配置
userAgent: *, disallowPaths: /search/, crawlDelay: 10
效果
生成了限制抓取频率的规则,有效缓解了服务器在高并发下的压力。

用 Samples 测试

text

相关专题

常见问题

什么是robots.txt文件?

它是存放在网站根目录下的文本文件,用于向搜索引擎爬虫说明网站哪些部分允许访问,哪些部分禁止访问。

如果不设置robots.txt会怎样?

搜索引擎默认会尝试抓取网站的所有公开页面,这可能导致后台路径或重复内容被索引。

爬取延迟(Crawl-delay)有什么作用?

它告诉爬虫在两次请求之间需要等待的秒数,有助于降低服务器压力,防止因抓取过快导致网站响应变慢。

我可以为不同的爬虫设置不同的规则吗?

可以,通过多次使用不同的User-agent配置,您可以分别为Googlebot、Bingbot等指定特定的访问权限。

生成的文件应该放在哪里?

生成后请将内容保存为robots.txt,并上传至您网站的根目录(例如:example.com/robots.txt)。

API 文档

请求端点

POST /zh/api/tools/robots-txt-generator

请求参数

参数名 类型 必填 描述
userAgent text -
allowPaths textarea -
disallowPaths textarea -
crawlDelay number -
sitemapUrl text -
includeComments checkbox -

响应格式

{
  "result": "Processed text content",
  "error": "Error message (optional)",
  "message": "Notification message (optional)",
  "metadata": {
    "key": "value"
  }
}
文本: 文本

AI MCP 文档

将此工具添加到您的 MCP 服务器配置中:

{
  "mcpServers": {
    "elysiatools-robots-txt-generator": {
      "name": "robots-txt-generator",
      "description": "为搜索引擎爬虫生成robots.txt文件,支持可配置规则",
      "baseUrl": "https://elysiatools.com/mcp/sse?toolId=robots-txt-generator",
      "command": "",
      "args": [],
      "env": {},
      "isActive": true,
      "type": "sse"
    }
  }
}

你可以串联多个工具,比如:`https://elysiatools.com/mcp/sse?toolId=png-to-webp,jpg-to-webp,gif-to-webp`,最多20个。

如果遇见问题,请联系我们:[email protected]