LINUX/AIX/UNIX 大文件排序问题

来源:互联网 发布:小米 限制软件联网 编辑:程序博客网 时间:2024/05/16 00:45

上周经理让我在UNIX环境下 对一个150M 的txt 的第一列进行排序,组内以前有人写过一个程序,

用结构体+冒泡法+共享内存 排序,但是后面发现只能对百万行的数据排序,如果文件过大,申请不到共享内存,

现在机器上一般共享内存限制2G。

比较笨的方法是 导入数据库,然后order by 再导出来。但是。。。速度啊。。慢。。还折腾人。。

我想到了用shell ,用sort排序,结果文件还是过大,sort处理不过来

$ sort -d -t "|" -k 1 cc.txt sort:

 Fatal error, too many temp files needed

后面到CU论坛发帖,有人提议用perl(http://bbs.chinaunix.net/thread-1802345-1-1.html)

perl -F"/|" -lane '{$h{$F[0]}.=$_;}END{print $h{$_} for(sort{$a <=> $b} keys %h)}' cc.txt

但是申请的内存还是不够用最后,

请教了以前的“半仙”同学(半仙是外号,哈哈,一直很佩服的人啊,仙人一般的存在)

head -n 10000 cc.txt |sort -d -t "|" -k1n cc.txt >aftersort.txt 文件解决了。

用过shell越发觉shell的强大!

原创粉丝点击