去年做了一个名人查www.mingrencha.cn网站,BA以后,有个网站采集了财经类的网站采集资源的网站,被采集的采集网站律师发了律师函,并且发了法院传票,所以当时不知道采集的是他们网站内容,我采集的那个网站一点事没有,因为他没有BA!我BA了,所以被人找到公司名字讹钱了!所以当时想着就注销公司算了,注销以后,名人查这个网站的BA也掉了。所以就临时搞了香港服务器,因为这个事情导致这个网站 拖延了好久都没有发内容,所以近期想要看看有谁会写批量采集的规则,想要只采集 名人的百科资源, 采集百度 搜狗 头条的百科任意一个网站都行! 我现在有个朋友帮忙用Py写的,需要采集那个百科,需要用手搜索以后点开那个百科网址,然后复制网址到采集器里面才行,这样虽然省事,但是效率还是太慢了! 不知道各位大神有什么好的方案或者建议吗? 并且有需要收录个人信息的可以联系我,并且可以在名人页面放你的个人网站地址类似这种: https://mingrencha.cn/mrdq/mr/81.html https://mingrencha.cn/mrdq/mr/82.html 网站, 百科