咨询下论坛大佬,我有个站从服务器端禁止百度蜘蛛了,同时Robots.txt里面也做了禁止百度蜘蛛的操作! 为什么百度还是能收录呢???就离谱啊。 我用UA插件,模拟百度蜘蛛访问,显示无法访问,没啥毛病,百度站长工具访问也是拒绝访问! 但是!但是!但是!就是有收录啊,中间我还改了一次title,然后title也跟着更新了!到底啥情况撒? 有没有大佬有新的解决方案,拒绝百度蜘蛛爬取网站。(我的方式已经不管用了,服务器端,我是通过判断请求头里面的UA,只要是包含了*baidu*全部禁止。) 蜘蛛, 服务器端