还有类似这种在线爬站的网站吗?

查看 29|回复 1
作者:会翻车吗   
会翻车吗
OP
  
[ol]在 Linux 下,通过一个命令就可以把整个站相关的文件全部下载下来。
wget -r -p -k -np
参数说明:
-r: 递归下载
-p: 下载所有用于显示 HTML 页面的图片之类的元素
-k: 在转换文件 X 前先将它备份为 X.orig 。
-np: 不追溯至父目录
wget -r -np -nd http://example.com/
这条命令可以下载 http://example.com 网站根目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。
wget -m -k (-H) http://www.example.com/
该命令可用来镜像一个网站,wget 将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。[/ol]复制代码
您需要登录后才可以回帖 登录 | 立即注册

返回顶部