linux的 wget 命令

来源:互联网 发布:sql case语句用法 编辑:程序博客网 时间:2024/05/17 23:20
wget 是 linux 最常用的下载命令,  一般的使用方法是: wget  +  空格  + 
要下载文件的 url路径 
 
例如: # wget http://www.linuxsense.org/xxxx/xxx.tar.gz 
 
简单说一下-c 参数,  这个也非常常见,  可以断点续传,  如果不小心终
止了,  可以继续使用命令接着下载 
例如: # wget -c http://www.linuxsense.org/xxxx/xxx.tar.gz 
 
下面详细阐述 wget 的用法: 
 
wget 是一个从网络上自动下载文件的自由工具。它支持 HTTP,
HTTPS 和 FTP 协议,可以使用 HTTP 代理. 
 
所谓的自动下载是指,wget 可以在用户退出系统的之后在后台执行。
这意味这你可以登录系统,启动一个 wget 下载任务,然后退出系统,
wget 将在后台执行直到任务完成,相对于其它大部分浏览器在下载
大量数据时需要用户一直的参与,这省去了极大的麻烦。 
 
wget 可以跟踪 HTML 页面上的链接依次下载来创建远程服务器的本
地版本,完全重建原始站点的目录结构。这又常被称作"递归下载"。  
  
在递归下载的时候,wget 遵循 Robot Exclusion标准(/robots.txt). wget
可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。  
 
wget 非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应
性.如果是由于网络的原因下载失败,wget 会不断的尝试,直到整个
文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上
从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载
大文件非常有用。 
wget 的常见用法 
 
wget 的使用格式 
 
Usage: wget [OPTION]... ... 
 
      *  用 wget 做站点镜像: 
 
wget -r -p -np -k [url]http://dsec.pku.edu.cn/~usr_name/ 
#  或者 
wget -m http://www.tldp.org/LDP/abs/html/ 
 
      *  在不稳定的网络上下载一个部分下载的文件,以及在空闲时段
下载   
  
 
wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log & 
#  或者从 filelist 读入要下载的文件列表 
wget  -t  0  -w  31  -c  -B  ftp://dsec.pku.edu.cn/linuxsoft  -i  filelist.txt  -o 
down.log & 
 
上面的代码还可以用来在网络比较空闲的时段进行下载。 我的用法是:
在mozilla中将不方便当时下载的URL链接拷贝到内存中然后粘贴到
文件 filelist.txt 中,在晚上要出去系统前执行上面代码的第二条。 
 
      *  使用代理下载 
 
wget -Y on -p -k https://sourceforge.net/projects/wvware/ 
 
代理可以在环境变量或 wgetrc 文件中设定 
 
#  在环境变量中设定代理 
export PROXY=http://211.90.168.94:8080/ 
#  在~/.wgetrc 中设定代理 
http_proxy = http://proxy.yoyodyne.com:18023/ 
ftp_proxy = http://proxy.yoyodyne.com:18023/ 
   
  
wget 各种选项分类列表 
 
      *  启动 
 
-V,  --version              显示 wget 的版本后退出 
  -h,  --help                  打印语法帮助 
  -b,  --background          启动后转入后台执行 
  -e,  --execute=COMMAND   执行`.wgetrc'格式的命令, wgetrc 格式参
见/etc/wgetrc 或~/.wgetrc 
 
      *  记录和输入文件 
 
-o,  --output-file=FILE      把记录写到 FILE 文件中 
  -a,  --append-output=FILE   把记录追加到 FILE 文件中 
  -d,  --debug                      打印调试输出 
  -q,  --quiet                      安静模式(没有输出) 
  -v,  --verbose                  冗长模式(这是缺省设置) 
  -nv, --non-verbose              关掉冗长模式,但不是安静模式 
  -i,  --input-file=FILE       下载在 FILE 文件中出现的 URLs 
  -F,  --force-html              把输入文件当作 HTML格式文件对待 
  -B,  --base=URL                  将 URL 作为在-F  -i 参数指定的文件中出
现的相对链接的前缀   
  
          --sslcertfile=FILE      可选客户端证书 
          --sslcertkey=KEYFILE   可选客户端证书的 KEYFILE 
          --egd-file=FILE          指定 EGD socket 的文件名 
 
      *  下载 
 
--bind-address=ADDRESS   指定本地使用地址(主机名或 IP,当本地
有多个 IP 或名字时使用) 
  -t,  --tries=NUMBER              设定最大尝试链接次数(0  表示无限制). 
  -O    --output-document=FILE   把文档写到 FILE 文件中 
  -nc, --no-clobber                  不要覆盖存在的文件或使用.#前缀 
  -c,  --continue                   接着下载没下载完的文件 
          --progress=TYPE              设定进程条标记 
  -N,  --timestamping              不要重新下载文件除非比本地文件新 
  -S,  --server-response          打印服务器的回应 
          --spider                      不下载任何东西 
  -T,  --timeout=SECONDS          设定响应超时的秒数 
  -w,  --wait=SECONDS              两次尝试之间间隔 SECONDS 秒 
          --waitretry=SECONDS       在重新链接之间等待 1...SECONDS
秒 
          --random-wait               在下载之间等待 0...2*WAIT 秒 
  -Y,  --proxy=on/off              打开或关闭代理   
  
  -Q,  --quota=NUMBER              设置下载的容量限制 
          --limit-rate=RATE          限定下载输率 
 
      *  目录 
 
-nd  --no-directories               不创建目录 
  -x,  --force-directories           强制创建目录 
  -nH, --no-host-directories          不创建主机目录 
  -P,  --directory-prefix=PREFIX   将文件保存到目录  PREFIX/... 
          --cut-dirs=NUMBER              忽略  NUMBER 层远程目录 
 
      * HTTP  选项 
 
--http-user=USER       设定 HTTP 用户名为  USER. 
          --http-passwd=PASS      设定 http 密码为  PASS. 
  -C,  --cache=on/off          允许/不允许服务器端的数据缓存 (一般情
况下允许). 
  -E,  --html-extension       将所有 text/html文档以.html 扩展名保存 
          --ignore-length          忽略  `Content-Length'头域 
          --header=STRING          在 headers 中插入字符串  STRING 
          --proxy-user=USER      设定代理的用户名为  USER 
          --proxy-passwd=PASS   设定代理的密码为  PASS   
  
          --referer=URL           在 HTTP 请求中包含  `Referer: URL'头 
  -s,  --save-headers          保存 HTTP 头到文件 
  -U,  --user-agent=AGENT      设定代理的名称为  AGENT 而不是 
Wget/VERSION. 
          --no-http-keep-alive  关闭  HTTP 活动链接 (永远链接). 
          --cookies=off           不使用  cookies. 
          --load-cookies=FILE   在开始会话前从文件  FILE中加载cookie 
          --save-cookies=FILE   在会话结束后将  cookies 保存到  FILE 文
件中 
 
      * FTP  选项 
 
-nr, --dont-remove-listing   不移走  `.listing'文件 
  -g,  --glob=on/off              打开或关闭文件名的  globbing机制 
          --passive-ftp              使用被动传输模式 (缺省值). 
          --active-ftp               使用主动传输模式 
          --retr-symlinks           在递归的时候,将链接指向文件(而不是目
录) 
 
      *  递归下载 
 
-r,  --recursive              递归下载--慎用!   
  
  -l,  --level=NUMBER          最大递归深度  (inf  或  0  代表无穷). 
          --delete-after          在现在完毕后局部删除文件 
  -k,  --convert-links       转换非相对链接为相对链接 
  -K,  --backup-converted   在转换文件 X 之前,将之备份为  X.orig 
  -m,  --mirror                  等价于  -r -N -l inf -nr. 
  -p,  --page-requisites      下载显示 HTML 文件的所有图片 
 
      *  递归下载中的包含和不包含(accept/reject) 
 
-A,  --accept=LIST                      分号分隔的被接受扩展名的列表 
  -R,  --reject=LIST                      分号分隔的不被接受的扩展名的列表 
  -D,  --domains=LIST                   分号分隔的被接受域的列表 
          --exclude-domains=LIST          分号分隔的不被接受的域的列表 
          --follow-ftp                      跟踪 HTML 文档中的 FTP 链接 
          --follow-tags=LIST              分号分隔的被跟踪的 HTML 标签的
列表 
  -G,  --ignore-tags=LIST              分号分隔的被忽略的HTML标签的列
表 
  -H,  --span-hosts                      当递归时转到外部主机 
  -L,  --relative                          仅仅跟踪相对链接 
  -I,  --include-directories=LIST   允许目录的列表 
  -X,  --exclude-directories=LIST   不被包含目录的列表   
  
  -np, --no-parent                       不要追溯到父目录 
 
原创粉丝点击