主要用了几个:
rm -rf mydir /* 删除mydir目录 */
cd mydir /* 进入mydir目录 */
cd – /* 回上一级目录 */
cd ~ /* 回根目录 */
nohup wget -r -p -k -np http://www.example.com& /*邪恶,下载整站 */
附上资料:

引用
举个例子吧,比如我要下载一个电影,用wget下载(wget还是我在下次介绍吧,一会儿要打乒乓去),命令是:(#开头的斜体表示命令行命令) #wget -c ftp://202.113.13.166:2121/pub3/divx05/%B3%F6%C9%FA%C8%EB%CB%C0/c2g-dcn.avi, wget后面的-c选项是表示断点续传,后面是一个地址链接. 要让他不停的运行,只要在前面加一个nohup就可以了.这样: #nohup wget -c ftp://202.113.13.166:2121/pub3/divx05/%B3%F6%C9%FA%C8%EB%CB%C0/c2g-dcn.avi 当然最好还是在后面加一个&符号,后台运行,好空出console.变成这样了: #nohup wget -c ftp://202.113.13.166:2121/pub3/divx05/%B3%F6%C9%FA%C8%EB%CB%C0/c2g-dcn.avi& 好了,现在你可以注销了.再登录进去,用#ps -A|grep wget可以查看到wget还在run!!!! wget下载整个网站可以使用下面的命令 wget -r -p -k -np http://hi.baidu.com/phps , -r 表示递归下载,会下载所有的链接,不过要注意的是,不要单独使用这个参数,因为如果你要下载的网站也有别的网站的链接,wget也会把别的网站的东西下载下来,由于互联网的特性,很有可能你会把整个互联网给下载下来 –,所以要加上 -np这个参数,表示不下载别的站点的链接. -k表示将下载的网页里的链接修改为本地链接.-p获得所以显示网页所需的元素,比如图片什么的. 另外还有其他的一些参数可以使用: -c表示断点续传 -t 100表示重试100次,-t 0表示无穷次重试 另外可以将要下载的url写到一个文件中,每个url一行,使用这样的命令 wget -i download.txt. –reject=avi,rmvb 表示不下载avi,rmvb的文件,–accept=jpg,jpeg,表示只下载jpg,jpeg的文件. 可以在用户目录下建立一个.wgetrc的文件(windows里面好像不能直接建立这样的文件,windows会认为没有文件名–),里面写上 http-proxy = 123.456.78.9:80,然后在加上参数 –proxy=on,如果需要密码,再加上下面的参数 –proxy-user=username, –proxy-passwd=password

以及 http://hi.baidu.com/hnsoar/blog/item/5f2b5ec33c971b110ff47731.html

PS:不知道下载整站verycd要多大空间-.-
du -sh 查看当前文件夹大小