linux环境下wget轻松下载整个或者指定目录的网站数据

当遇到一个网站或者一个网页上,有许许多多的文件。

依靠手工去一个一个点开下载确实非常的繁琐,最主要是累

下面就使用linux下面一个比较常用的工具wget来解决这个事情

举个例子

需要某个目录下面的所有文件

命令:

wget -c -r -np -k -L -p http://doc.test.com/lib/install/

有用到外部域名的图片或连接。如果需要同时下载就要用-H参数

wget -np -nH -r –span-hosts doc.test.com/lib/install/

参数详解:

-c 断点续传
-r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件
-nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录
-np 递归下载时不搜索上层目录,如wget -c -r doc.test.com/lib/install/
没有加参数-np,就会同时下载install的上一级目录lib下的其它文件
-k 将绝对链接转为相对链接,下载整个站点后脱机浏览网页,最好加上这个参数
-L 递归时不进入其它主机,如wget -c -r www.ivpsr.com
如果网站内有一个这样的链接:
www.ivpsr.com,不加参数-L,就会像大火烧山一样,会递归下载www.ivpsr.com网站
-p 下载网页所需的所有文件,如图片等
-A 指定要下载的文件样式列表,多个样式用逗号分隔
-i 后面跟一个文件,文件内指明要下载的URL

参数很是详细需要根据实际使用的时候自行搭配

阅读剩余
THE END