今天安利了一款扒站神器===>>>wget
安装步骤
前往eternallybored下载最新版本的wget的zip/exe文件,如果你下载的是zip文件,请将其解压,并将wget.exe放入 C:\Windows\System32内(会提示管理员权限,给他就行),无论你下的是64还是32位版本。完事。
看图:
运行
然后打开cmd:输入wget --help 去重启一下,接下来就会显示此工具的一些命令介绍,然后就可以使用了,
看图:
接下来就可以做你想做的了,首先你可以cd到你想下载的目标目录,然后输入:
wget -r -p -np -k http://xxx.com/xxx
就可以了,
看图:
然后一整套网站就拿下来了,注意,网址要写首页的,不然会漏掉许多!
参数解释:
wget加上参数之后,即可成为相当强大的下载工具。
wget命令详解
wget -r -p -np -k http://xxx.com/xxx
-r, --recursive(递归) specify recursive download.(指定递归下载)
-k, --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p, --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np, --no-parent(不追溯至父级) don’t ascend to the parent directory.
另外断点续传用-nc参数 日志 用-o参数
执行 wget -r -p -np -k https://xxx.com/ 命令
连接到https://xxx.com/不安全,使用“不检查证书”,后面需加上 --no-check-certificate 即可成功安装
wget -r -p -np -k -E http://www.xxx.com 抓取整站
wget -l 1 -p -np -k http://www.xxx.com 抓取第一级
wget -m -e robots=off -k -E “http://www.abc.net/”
可以将全站下载以本地的当前工作目录,生成可访问、完整的镜像。
解释:
-m //镜像,就是整站抓取
-e robots=off //忽略robots协议,强制、流氓抓取
-k //将绝对URL链接转换为本地相对URL
-E //将所有text/html文档以.html扩展名保存
>>>>>>>>>>>>>>>>>>华丽的分界线<<<<<<<<<<<<<<<<<<
其实wget可以干很多其他的活,不仅仅限于网站趴取哦~~~