网站日志蜘蛛上千,站长后台仅显示一半,求robots.txt的写法

查看 106|回复 8
作者:木韵   
新手求助:怎么样写robots.txt文件才能避免浪费蜘蛛?只允许抓取内容页、标签、栏目和首页。
问题描述:网站是用zblog程序搭建,日志导出时间是:9月14号到9月20号到,蜘蛛抓取统计有三种方式:一个是网站后台的插件,一个是站长后台,一个是网站日志(如图)。随机抽查了一些ip,结果都是真蜘蛛,看爱站工具好像有一半蜘蛛都是抓站内js、png等文件。因为这个站没有写robots.txt文件,所以来问问。


image.png (22.7 KB, 下载次数: 0)
下载附件
保存到相册
半小时前 上传



image.png (51.83 KB, 下载次数: 0)
下载附件
保存到相册
29分钟前 上传



image.png (23.06 KB, 下载次数: 0)
下载附件
保存到相册
27分钟前 上传



image.png (50.07 KB, 下载次数: 0)
下载附件
保存到相册
8分钟前 上传

下载次数, 蜘蛛

木韵
OP
  
我这样写有问题吗?
# robots.txt generated at https://www.自己的域名.com/robots/
User-agent: *
Disallow: /zb_users
Disallow: /static
Disallow: /zb_system
Sitemap: https://www.自己的域名.com/sitemap/map.txt
Sitemap: https://www.自己的域名.com/sitemap/map.xml
一哥   
百度蜘蛛几乎不看robots的,你不让他爬也会爬,谷歌蜘蛛是讲武德的
大哥求教   
可能很多是假的,很正常
Believe   
路过看看
酒醒何处   
感谢金币
星选   
蜘蛛从来不遵循robots,所以不用管这些。
User-agent:*
Disallow:
Sitemap:https://你的域名/sitemap/map.xml
这就够了
大哥求教   
一哥 发表于 2023-9-20 16:57
百度蜘蛛几乎不看robots的,你不让他爬也会爬,谷歌蜘蛛是讲武德的

百度现在想怎么玩就怎么玩了
祥哥   
谢谢金币
您需要登录后才可以回帖 登录 | 立即注册

返回顶部