Robots.txt 生成器

可视化创建和管理网站的 robots.txt 文件

网站信息
指定网站地图文件的URL,帮助搜索引擎更好地抓取
设置爬虫访问间隔,避免服务器压力过大
爬虫规则 0
点击"添加规则"开始配置爬虫访问规则
使用说明:粘贴您的 robots.txt 内容,点击验证按钮检查语法错误
使用说明:测试特定URL是否被当前规则允许或禁止访问
所有爬虫 Googlebot Baiduspider Bingbot 360Spider Sogou
快速开始:选择一个模板作为起点,然后根据需要修改
允许所有

允许所有搜索引擎访问整个网站

禁止所有

禁止所有搜索引擎访问整个网站

WordPress

WordPress网站推荐配置

电商网站

电商网站推荐配置

博客网站

博客网站推荐配置

自定义

从空白开始自定义规则

SEO优化建议
  • 始终在根目录放置 robots.txt 文件(如:example.com/robots.txt)
  • 不要在 robots.txt 中隐藏敏感信息,它是公开可访问的
  • 使用 Allow 指令可以覆盖 Disallow 规则
  • 定期测试规则,避免误屏蔽重要页面
  • 包含 Sitemap 地址帮助搜索引擎发现页面
  • 使用 Crawl-delay 控制爬虫频率,保护服务器
实时预览
0 行
# Robots.txt Preview # 在左侧配置规则后,这里会实时显示生成的内容 User-agent: * Allow: /