关于大文本文件分割的问题

来源:互联网 发布:淘宝欧莱雅旗舰店 编辑:程序博客网 时间:2024/06/05 08:18

        今天在公司要处理日志文件,一个文件解压下来8G多,在本地用UE打开,由于要查找错误,必须通过关键字查找,UE承受不了,或者说我的电脑承受不了,找不了那么大的文件,卡死了,只能把UE关了,重来还是不行。后来在unix系统下查看,说那个unix系统配置比较高,用more查看,搜索关键字,间隔100多行的还好,间隔个几千几万行的也不行,卡死了,一直说在计算行数。

       没办法,今天一定要把错误查清楚,只能用unix下的split命令把这个文件按1G划分,然后再查看,果然效果很好。不过如果没有unix系统可以用,或者电脑配置没那么高怎么办。

       貌似文本分割器要分割一个8g的文件是不是要很长时间,而且还不知道会不会对电脑伤害很大,希望能寻找一个能快速并且高效的分割大文本文件的软件。

       而且日志文件里的内容太多,我只需要其中的一小部分,能不能快速的把这一小部分分割出来呢,我希望能用一个软件来实现。