Linux:tar,cp,cpio,Backup,Restore

来源:互联网 发布:2017深圳人口分布数据 编辑:程序博客网 时间:2024/04/29 13:54
俺需要把一台机器上面的大量的小文件(总大小在27G的样子)
备份到另外一台机器



周末试了cp命令,大概需要10多个小时,最后还报内存不足
而且中间看网络流量,也就是几百K的大小

想知道用什么方式好做这个东西

如果整个归档到一个大文件,那几十G的大小即使成功了俺也恢复不回去


能不能先提示几个思路啊,俺测试一下

 

*********************************************************************************************************************** 

两台机器你是怎么用的CP我觉得很奇怪?!

1、FTP。
2、十几个GB用GZIP压一下,也就不到一个GB,可以TAR过去,但看你CP一份要十个小时多,算了,这个方法不可行。
3、用BACKUP命令。find <dir1/file*>; <dir2/filename*>;... -print|backup -iqvf /dev/rmt0
     解压:restore -xdqvf /dev/rmt0 <dir?/???>;    (不打路径默认全部)
4、PAX用过,能备大文件,但恢复和备份机制我都不推荐。所以使用方法也不介绍。

 

 

把另外一个机器nfs文件系统mount到本地使用

十几个小时不是网络速度有问题
主要是文件都很小,但数量巨多
当时用tar命令就是因为报内存不足才放弃
用cp提示差不多的错误,都是内存不足
才换成cpio命令试一下

我要备份到一个存储用的机器上面
磁带备份还是要保留的

 

 

 

原创粉丝点击