论:百度为什么要在这几个月干掉无数网站

查看 67|回复 1
作者:13390991811   
这个问题很多人在那边猜测,我个人感觉都不对,我的结论是:小站都是百度ai的牺牲品,因为要训练自己的ai数据,所以势必要全网抓取数据,而全网的信息过于庞大,内容质量参次不齐,站长们在内容上面的花活也比较多,站点垂直度也不高,这样会导致数据抓取出来很多垃圾内容,而从那些知名大站抓取出来的数据还是靠谱率高一点,训练出来的东西也靠谱很多,所以为了训练高质量内容,必须给全网数据一波清理,当然这肯定也会误杀很多小站,因为本身估计是算法批量覆盖式的一刀切,在2023年年头上chatgpt一出来我就说站长以后不好搞,恐怕得完,我当时的分析是chatgpt同行用我也用,我不怕,但是百度自己的文心一言呢?你们怎么可能争得过它
  当时很多留言说我危言耸听,你们说百度ai是垃圾,百度做啥都做不起来啥的,现在你们看看,他做不做得起来另说,你们比他先没了,看下面图片,百度的ai首页结果是从大站里面精选分析然后总结出来的,如果从小站去总结势必一塌糊涂,从这一点我们可以看出,站里面有各种花活内容的绝对不会恢复,如果误杀的高质量可以去尝试申诉


image.png (338.09 KB, 下载次数: 0)
下载附件
保存到相册
11分钟前 上传



image.png (184.74 KB, 下载次数: 0)
下载附件
保存到相册
9分钟前 上传



image.png (185.11 KB, 下载次数: 0)
下载附件
保存到相册
6分钟前 上传

下载次数, 内容

前方   
说的有道理
您需要登录后才可以回帖 登录 | 立即注册

返回顶部