【奇葩了】服务器端和Robots.txt都禁止百度蜘蛛了,为什么还能收录?

查看 49|回复 0
作者:Hijerry   
咨询下论坛大佬,我有个站从服务器端禁止百度蜘蛛了,同时Robots.txt里面也做了禁止百度蜘蛛的操作!
为什么百度还是能收录呢???就离谱啊。
我用UA插件,模拟百度蜘蛛访问,显示无法访问,没啥毛病,百度站长工具访问也是拒绝访问! 但是!但是!但是!就是有收录啊,中间我还改了一次title,然后title也跟着更新了!到底啥情况撒?
有没有大佬有新的解决方案,拒绝百度蜘蛛爬取网站。(我的方式已经不管用了,服务器端,我是通过判断请求头里面的UA,只要是包含了*baidu*全部禁止。)

蜘蛛, 服务器端

您需要登录后才可以回帖 登录 | 立即注册

返回顶部