hadoop的lzo
来源:互联网 发布:女生用的吉他淘宝 编辑:程序博客网 时间:2024/05/17 04:00
在hadoop中使用lzo的压缩算法可以减小数 据 的大小和数据的磁盘读写时间,不仅如此,lzo是基于block分块的,这样他就允许数据被分解成chunk,并行 的被hadoop处理。这样的特点,就可以让lzo在hadoop上成为一种非常好用的压缩格式。
由于压缩的数据通常只有原始数据的1/4,在HDFS中存储压缩数据,可以使集群能保存更多的数据,延长集群的使用寿命。不仅如此,由于 mapreduce作业通常瓶颈都在IO上,存储压缩数据就意味这更少的IO操作,job运行更加的高效。但是,在hadoop上使用压缩也有两个比较麻 烦的地方:第一,有些压缩格式不能被分块,并行的处理,比如gzip。第二,另外的一些压缩格式虽然支持分块处理,但是解压的过程非常的缓慢,使job的 瓶颈转移到了cpu上,例如bzip2。比如我们有一个1.1GB的gzip文件,该文 件 被分成128MB/chunk存储在hdfs上,那么它就会被分成9块。为了能够在mapreduce中并行的处理 各个chunk,那么各个mapper之间就有了依赖。而第二个mapper就会在文件的某个随机的byte出进行处理。那么gzip解压时要用到的上下 文字典就会为空,这就意味这gzip的压缩文件无法在hadoop上进行正确的并行处理。也就因此在hadoop上大的gzip压缩文件只能被一个 mapper来单个的处理,这样就很不高效,跟不用mapreduce没有什么区别了。而另一种bzip2压缩格式,虽然bzip2的压缩非常的快,并且 甚至可以被分块,但是其解压过程非常非常的缓慢,并且不能被用streaming来读取,这样也无法在hadoop中高效的使用这种压缩。即使使用,由于 其解压的低效,也会使得job的瓶颈转移到cpu上去。
如果能够拥有一种压缩算法,即能够被分块,并行的处理,速度也非常的快,那就非常的理想。这种方式就是lzo。lzo的压缩文件是由许多的小的 blocks组成(约256K),使的hadoop的job可以根据block的划分来split job。不仅如此,lzo在设计时就考虑到了效率问题,它的解压速度是gzip的两倍,这就让它能够节省很多的磁盘读写,它的压缩比的不如gzip,大约 压缩出来的文件比gzip压缩的大一半,但是这样仍然比没有经过压缩的文件要节省20%-50%的存储空 间 ,这样就可以在效率上大大的提高job执行的速度。以下是一组压缩对比数据,使用一个8.0GB的未经过压缩的数据 来进行对比:
可以看出,lzo压缩文件会比gzip压缩文件稍微大一些,但是仍然比原始文件要小很多倍,并且lzo文件压缩的速度几乎相当于gzip的5倍,而解压的 速度相当于gzip的两倍。lzo文件可以根据block boundaries来进行分块,比如一个1.1G的lzo压缩文件,那么处理第二个128MB block的mapper就必须能够确认下一个block的boundary,以便进行解压操作。lzo并没有写什么数据头来做到这一点,而是实现了一个 lzo index文件,将这个文件(foo.lzo.index)写在每个foo.lzo文件中。这个index文件只是简单的包含了每个block在数据中的 offset,这样由于offset已知的缘故,对数据的读写就变得非常的快。通常能达到90-100MB/秒,也就是10-12秒就能读完一个GB的文 件。一旦该index文件被创建,任何基于lzo的压缩文件就能通过load该index文件而进行相应的分块,并且一个block接一个block的被 读取。也因此,各个mapper都能够得到正确的block,这就是说,可以只需要进行一个LzopInputStream的封装,就可以在hadoop 的mapreduce中并行高效的使用lzo。如果现在有一个job的InputFormat是TextInputFormat,那么就可以用lzop来 压缩文件,确保它正确的创建了index,将TextInputFormat换成LzoTextInputFormat,然后job就能像以前一样正确的 运行,并且更加的快。有时候,一个大的文件被lzo压缩过之后,甚至都不用分块就能被单个mapper高效的处理了。
在 hadoop集群中安装lzo
要在hadoop中搭建lzo使用环境非常简单:
- 安装lzop native libraries
例如:sudo yum install lzop lzo2 - 从如下地址下载 hadoop lzo支持到源代码:http://github.com/kevinweil/hadoop-lzo
- 编译从以上链接 checkout下来到代码,通常为:ant compile-native tar
- 将编译出来到hadoop-lzo-*.jar 部 署到hadoop集群到各个slave到某个有效目录下,如$HADOOOP_HOME/lib
- 将 以上编译所得到hadoop-lzo native lib binary部署到集群到某个有效目录下,如$HADOOP_HOME/lib/native/Linux-amd64-64。
- 将如下 配置到 core-site.xml 中:
<property><name>io.compression.codecs</name><value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.BZip2Codec,com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec</value></property><property><name>io.compression.codec.lzo.class</name><value>com.hadoop.compression.lzo.LzoCodec</value></property>
- 将 如下配置到mapred-site.xml中:
<property><name>mapred.child.env</name><value>JAVA_LIBRARY_PATH=/path/to/your/native/hadoop-lzo/libs</value></property>
- 如 果想要mapreduce再写中间结果时也使用压缩,可以将如下配置也写入到mapred-site.xml中。
<property><name>mapred.map.output.compression.codec</name><value>com.hadoop.compression.lzo.LzoCodec</value></property>
如果以上所有操作都成功,那么现在就可以尝试使用lzo了。比如打包一个lzo都压缩文件,如lzo_log文件,上传到hdfs中,然后用以下命令 进行测试:
hadoop jar /path/to/hadoop-lzo.jar com.hadoop.compression.lzo.LzoIndexer hdfs://namenode:9000/lzo_logs
如果要写一个job来使用lzo,可以找一个job,例如wordcount,将当中到TextInputFormat修改为LzoTextInputForma,其他都不用修改,job就能从hdfs上读入 lzo压缩文件,进行分布式都分块并行处理。
- hadoop的lzo
- hadoop lzo的使用方法
- hadoop lzo的使用方法
- Hadoop 的lzo压缩尝试
- hadoop集群lzo的安装
- hadoop-lzo环境变量的设置
- hadoop hive的lzo总结
- hadoop的lzo插件安装
- Hadoop Lzo
- 脱离Hadoop的环境下使用Lzo
- hadoop lzo文件的并行map处理
- hadoop中使用lzo的压缩
- hadoop中使用lzo的压缩
- Hadoop LZO的安装与配置
- 关于hadoop使用lzo压缩的流程
- hadoop集群部署lzo
- hadoop lzo安装
- 安装hadoop-lzo
- php views参数传递 接口调用
- nginx+lua+redis
- 嵌入式环境图形加速浅析(以机顶盒平台为例)
- android源码结构
- CodeIgniter源码分析之Model.php
- hadoop的lzo
- ORACLE里随机取一定数量的记录
- android中src和background区别
- 随手小代码——约瑟夫出圈问题/约瑟夫环
- 端口映射
- js注册按钮读秒倒计时代码
- NDK Plugin下载
- CodeIgniter源码分析之Loader.php
- 在eclipse中反编译并查看jar包的class文件,批量反编译