检查 robots.txt 是否可访问,并验证 Sitemap 抓取状态
robots.txt 决定搜索引擎能否抓取指定目录与页面,而 Sitemap 则帮助搜索引擎更快发现站点内容。若 robots.txt 返回异常、设置了全站拒绝,或 Sitemap 无法访问,就会导致收录延迟甚至被排除。本工具会自动访问 robots.txt 并解析其中的 Sitemap,再对每个 Sitemap 发起可用性校验,帮助你快速发现抓取障碍。
建议在发布新站点、调整目录结构或更换 CDN 后进行校验,并结合 HTTP 状态码与 DNS 工具排查可能的访问或解析问题。