Closed Brx86 closed 1 year ago
部署到cloudflare workers时,经常被发邮件警告10万次额度不够用,一看分析,有来自US、RU、JP等的数十万次请求,大多是搜索引擎的爬虫。建议在请求/robots.txt的时候返回相应文本,禁止爬虫的递归请求。
我在根目录下加了个文件robots.txt,内容如下
robots.txt
User-agent: * Disallow: /
另外我把主页上不感兴趣的链接都删除了,只保留了搜索框,这样减少链接索引
部署到cloudflare workers时,经常被发邮件警告10万次额度不够用,一看分析,有来自US、RU、JP等的数十万次请求,大多是搜索引擎的爬虫。建议在请求/robots.txt的时候返回相应文本,禁止爬虫的递归请求。