AWS USDT代付 | Payment 解决方案
AWS代付、代实名
阿里云国际 | 腾讯云国际
联系我们
Telegram 扫码添加
阿里云国际站
Cloud
Payment
AWS / GCP / 阿里云国际
首页
AWS亚马逊云
阿里云国际
腾讯云国际
GCP谷歌云
工具
工具中心
IP 检测
DNS 查询
DNS 传播
DNSSEC 诊断
SSL/TLS 检测
HTTP 状态码
HTTP 头部
HTTP/2/3 检测
Cache-Control
CORS 预检
CSP 生成校验
HSTS/HPKP
响应时间
可用性探测
监控配置
Robots 校验
反向 DNS
蜘蛛抓取
Whois 查询
CIDR 计算
UA 解析
2FA 动态口令
插件检测
Webhook 调试
JWT 解析
URL 编解码
汇率换算
robots 生成
Base64 图片
进制转换
JSON 格式化
Base64 编解码
时间戳转换
UUID 生成
密码生成
联系我们
robots.txt 生成工具
选择搜索引擎的允许/拒绝规则,自动生成 robots.txt 并下载
搜索引擎规则
全部允许
全部拒绝
生成结果
Sitemap (可选)
生成 robots.txt
复制
下载 robots.txt
生成后请保存为
robots.txt
并上传到网站根目录。
使用说明
为不同搜索引擎选择“允许”或“拒绝”规则,可一键全选。
如有站点地图,填写 sitemap 地址后一起生成。
点击生成后复制或下载 robots.txt,并上传到网站根目录。
常见问题
Q: Allow 与 Disallow 有什么区别?
A: Allow:/ 表示允许抓取全部路径,Disallow:/ 表示禁止抓取全部路径。
Q: 需要同时写 “*” 吗?
A: 可以用 “User-agent: *” 写通用规则,再对特定爬虫单独设置。
Q: 为什么要放在根目录?
A: 这是 robots 协议要求,搜索引擎仅从站点根目录读取 robots.txt。