Hadoop压缩API应用实例 org.hadoopinternal.compress

来源:互联网 发布:c 里基本蚁群算法 编辑:程序博客网 时间:2024/06/07 01:42

本节介绍使用编码/解码器的典型实例(代码在org.hadoopinternal.compress包中)。其中,compress()方法接受一个字符串参数,用于指定编码/解码器,并用对应的压缩算法对文本文件README.txt进行压缩。字符串参数使用Java的反射机制创建对应的编码/解码器对象,通过CompressionCodec对象,进一步使用它的createOutputStream()方法构造一个CompressionOutputStream流,未压缩的数据通过IOUtils.copyBytes()方法,从输入文件流中复制写入CompressionOutputStream流,最终以压缩格式写入底层的输出流中。

在本实例中,底层使用的是文件输出流FileOutputStream,它关联文件的文件名,是在原有文件名的基础上添加压缩算法相应的扩展名生成。该扩展名可以通过CompressionCodec对象的getDefaultExtension()方法获得。相关代码如下:
public static void compress(String method) throws…… {
   File fileIn = new File("README.txt");

   //输入流
   InputStream in =  new FileInputStream(fileIn);
 
   Class<?> codecClass = Class.forName(method);

   Configuration conf = new Configuration(); 
   //通过名称找对应的编码/解码器
   CompressionCodec codec = (CompressionCodec)
         ReflectionUtils.newInstance(codecClass, conf);

   File fileOut = new File("README.txt"+codec.getDefaultExtension());
   fileOut.delete();
   //文件输出流
   OutputStream out =  new FileOutputStream(fileOut);

   //通过编码/解码器创建对应的输出流
   CompressionOutputStream cout =
      codec.createOutputStream(out);

   //压缩
   IOUtils.copyBytes(in, cout, 4096, false);

   in.close();
   cout.close();
}

需要解压缩文件时,通常通过其扩展名来推断它对应的编码/解码器,进而用相应的解码流对数据进行解码,如扩展名为gz的文件可以使用GzipCodec阅读。每个压缩格式的扩展名请参考表3-3。

CompressionCodecFactory提供了getCodec()方法,用于将文件扩展名映射到对应的编码/解码器,如下面的例子。有了CompressionCodec对象,就可以使用和压缩类似的过程,通过对象的createInputStream()方法获得CompressionInputStream对象,解码数据。相关代码如下:
public static void decompress(File file) throws IOException { 
   Configuration conf = new Configuration();
   CompressionCodecFactory factory = new CompressionCodecFactory(conf);
 
   //通过文件扩展名获得相应的编码/解码器
   CompressionCodec codec = factory.getCodec(new Path(file.getName()));
 
   if( codec == null ) {
      System.out.println("Cannot find codec for file "+file);
      return;
   }

   File fileOut = new File(file.getName()+".txt");

   //通过编码/解码器创建对应的输入流
   InputStream in = codec.createInputStream( new FileInputStream(file) );
   ……
}

Hadoop通过以编码/解码器为基础的抽象工厂方法,提供了一个可扩展的框架,支持多种压缩方法。下面就来研究Hadoop压缩框架的实现。

1. 编码/解码器

前面已经提过,CompressionCodec接口实现了编码/解码器,使用的是抽象工厂的设计模式。CompressionCodec提供了一系列方法,用于创建特定压缩算法的相关设施,其类图如图3-5所示。

加载中...

CompressionCodec中的方法很对称,一个压缩功能总对应着一个解压缩功能。其中,与压缩有关的方法包括:

createOutputStream()用于通过底层输出流创建对应压缩算法的压缩流,重载的createOutputStream()方法可使用压缩器创建压缩流;

createCompressor()方法用于创建压缩算法对应的压缩器。后续会继续介绍压缩流CompressionOutputStream和压缩器Compressor。解压缩也有对应的方法和类。

CompressionCodec中还提供了获取对应文件扩展名的方法getDefaultExtension(),如对于org.apache.hadoop.io.compress.BZip2Codec,该方法返回字符串“.bz2”,注意字符串的第一个字符。相关代码如下:
public interface CompressionCodec {

   //在底层输出流out的基础上创建对应压缩算法的压缩流CompressionOutputStream对象
   CompressionOutputStream createOutputStream(OutputStream out)……

   //使用压缩器compressor,在底层输出流out的基础上创建对应的压缩流
   CompressionOutputStream createOutputStream(OutputStream out,
                                              Compressor compressor) ……
   ……
   //创建压缩算法对应的压缩器
   Compressor createCompressor();

   //在底层输入流in的基础上创建对应压缩算法的解压缩流CompressionInputStream对象
   CompressionInputStream createInputStream(InputStream in) ……
   ……

   //获得压缩算法对应的文件扩展名
   String getDefaultExtension();
}

CompressionCodecFactory是Hadoop压缩框架中的另一个类,它应用了工厂方法,使用者可以通过它提供的方法获得CompressionCodec。

注意 抽象工厂方法和工厂方法这两个设计模式有很大的区别,抽象工厂方法用于创建一系列相关或互相依赖的对象,如CompressionCodec可以获得和某一个压缩算法相关的对象,包括压缩流和解压缩流等。而工厂方法(严格来说,CompressionCodecFactory是参数化工厂方法),用于创建多种产品,如通过CompressionCodecFactory的getCodec()方法,可以创建GzipCodec对象或BZip2Codec对象。

在前面的实例中已经使用过getCodec()方法,为某一个压缩文件寻找对应的CompressionCodec。为了分析该方法,需要了解CompressionCodec类中保存文件扩展名和CompressionCodec映射关系的成员变量codecs。

codecs是一个有序映射表,即它本身是一个Map,同时它对Map的键排序,下面是codecs中保存的一个可能的映射关系:
{
   2zb.: org.apache.hadoop.io.compress.BZip2Codec,
   etalfed.: org.apache.hadoop.io.compress.DeflateCodec,
   yppans.: org.apache.hadoop.io.compress.SnappyCodec,
   zg.: org.apache.hadoop.io.compress.GzipCodec
}

可以看到,Map中的键是排序的。

getCodec()方法的输入是Path对象,保存着文件路径,如实例中的“README.txt.bz2”。

首先通过获取Path对象对应的文件名并逆转该字符串得到“2zb.txt.EMDAER”,然后通过有序映射SortedMap的headMap()方法,查找最接近上述逆转字符串的有序映射的部分视图,如输入“2zb.txt.EMDAER”的查找结果subMap,只包含“2zb.”对应的那个键–值对,如果输入是“zg.txt.EMDAER”,则subMap会包含成员变量codecs中保存的所有键–值对。

然后,简单地获取subMap最后一个元素的键,如果该键是逆转文件名的前缀,那么就找到了文件对应的编码/解码器,否则返回空。实现代码如下:
public class CompressionCodecFactory {
   ……
   //该有序映射保存了逆转文件后缀(包括后缀前的“.”)到CompressionCodec的映射
   //通过逆转文件后缀,我们可以找到最长匹配后缀
   private SortedMap<String, CompressionCodec> codecs = null;
   ……
   public CompressionCodec getCodec(Path file) {
         CompressionCodec result = null;
      if (codecs != null) {
         String filename = file.getName();
         //逆转字符串
         String reversedFilename = new
            StringBuffer(filename).reverse().toString();
         SortedMap<String, CompressionCodec> subMap =
            codecs.headMap(reversedFilename);
         if (!subMap.isEmpty()) {
            String potentialSuffix = subMap.lastKey();
            if (reversedFilename.startsWith(potentialSuffix)) {
               result = codecs.get(potentialSuffix);
            }
         }
      }
      return result;
   }
}

CompressionCodecFactory.getCodec()方法的代码看似复杂,但通过灵活使用有序映射SortedMap,实现其实还是非常简单的。

2. 压缩器和解压器

压缩器(Compressor)和解压器(Decompressor)是Hadoop压缩框架中的一对重要概念。
Compressor可以插入压缩输出流的实现中,提供具体的压缩功能;相反,Decompressor提供具体的解压功能并插入CompressionInputStream中。Compressor和Decompressor的这种设计,最初是在Java的zlib压缩程序库中引入的,对应的实现分别是java.util.zip.Deflater和java.util.zip.Inflater。下面以Compressor为例介绍这对组件。

Compressor的用法相对复杂,请参考org.hadoopinternal.compress.CompressDemo的compressor()方法。Compressor通过setInput()方法接收数据到内部缓冲区,自然可以多次调用setInput()方法,但内部缓冲区总是会被写满。如何判断压缩器内部缓冲区是否已满呢?可以通过needsInput()的返回值,如果是false,表明缓冲区已经满,这时必须通过compress()方法获取压缩后的数据,释放缓冲区空间。

为了提高压缩效率,并不是每次用户调用setInput()方法,压缩器就会立即工作,所以,为了通知压缩器所有数据已经写入,必须使用finish()方法。finish()调用结束后,压缩器缓冲区中保持的已经压缩的数据,可以继续通过compress()方法获得。至于要判断压缩器中是否还有未读取的压缩数据,则需要利用finished()方法来判断。

注意 finished()和finish()的作用不同,finish()结束数据输入的过程,而finished()返回false,表明压缩器中还有未读取的压缩数据,可以继续通过compress()方法读取。
使用Compressor的一个典型实例如下:
public static void compressor() throws ClassNotFoundException, IOException
{
   //读入被压缩的内容
   File fileIn = new File("README.txt");
   InputStream in =  new FileInputStream(fileIn);
   int datalength=in.available();
   byte[] inbuf = new byte[datalength];   
   in.read(inbuf, 0, datalength);
   in.close();

   //长度受限制的输出缓冲区,用于说明finished()方法
   byte[] outbuf = new byte[compressorOutputBufferSize];
 
   Compressor compressor=new BuiltInZlibDeflater();//构造压缩器

   int step=100;//一些计数器
   int inputPos=0;
   int putcount=0;
   int getcount=0;
   int compressedlen=0;
 
   while(inputPos < datalength) {
      //进行多次setInput()
      int len=(datalength-inputPos>=step)? step:datalength-inputPos;
      compressor.setInput(inbuf, inputPos, len );
      putcount++;

      while (!compressor.needsInput()) {
         compressedlen=compressor.compress(outbuf, 0, ……);
         if(compressedlen>0) {
            getcount++;  //能读到数据
         }
      }  // end of while (!compressor.needsInput())
      inputPos+=step;
   }
  
   compressor.finish(); 
 
   while(!compressor.finished()) {  //压缩器中有数据
      getcount++;
      compressor.compress(outbuf, 0, compressorOutputBufferSize);
   }
 
   System.out.println("Compress "+compressor.getBytesRead()  //输出信息
                      +" bytes into "+compressor.getBytesWritten());
   System.out.println("put "+putcount+" times and get "+getcount+" times");
 
   compressor.end();//停止
}

以上代码实现了setInput()、needsInput()、finish()、compress()和finished()的配合过程。将输入inbuf分成几个部分,通过setInput()方法送入压缩器,而在finish()调用结束后,通过finished()循序判断压缩器是否还有未读取的数据,并使用compress()方法获取数据。

在压缩的过程中,Compressor可以通过getBytesRead()和getBytesWritten()方法获得Compressor输入未压缩字节的总数和输出压缩字节的总数,如实例中最后一行的输出语句。Compressor和Decompressor的类图如图3-6所示。

加载中...

Compressor.end()方法用于关闭解压缩器并放弃所有未处理的输入;reset()方法用于重置压缩器,以处理新的输入数据集合;reinit()方法更进一步允许使用Hadoop的配置系统,重置并重新配置压缩器。

限于篇幅,这里就不再探讨解压器Decompressor了。

3. 压缩流和解压缩流

Java最初版本的输入/输出系统是基于流的,流抽象了任何有能力产出数据的数据源,或者是有能力接收数据的接收端。一般来说,通过设计模式装饰,可以为流添加一些额外的功能,如前面提及的序列化流ObjectInputStream和ObjectOutputStream。

压缩流(CompressionOutputStream)和解压缩流(CompressionInputStream)是Hadoop压缩框架中的另一对重要概念,它提供了基于流的压缩解压缩能力。如图3-7所示是从java.io.InputStream和java.io.OutputStream开始的类图。

加载中...

这里只分析和压缩相关的代码,即CompressionOutputStream及其子类。

OutputStream是一个抽象类,提供了进行流输出的基本方法,它包含三个write成员函数,分别用于往流中写入一个字节、一个字节数组或一个字节数组的一部分(需要提供起始偏移量和长度)。

注意 流实现中一般需要支持的close()和flush()方法,是java.io包中的相应接口的成员函数,不是OutputStream的成员函数。

CompressionOutputStream继承自OutputStream,也是个抽象类。如前面提到的ObjectOutputStream、CompressionOutputStream为其他流添加了附加额外的压缩功能,其他流保存在类的成员变量out中,并在构造的时候被赋值。

CompressionOutputStream实现了OutputStream的close()方法和flush()方法,但用于输出数据的write()方法、用于结束压缩过程并将输入写到底层流的finish()方法和重置压缩状态的resetState()方法还是抽象方法,需要CompressionOutputStream的子类实现。相关代码如下:
public abstract class CompressionOutputStream extends OutputStream {
   //输出压缩结果的流
   protected final OutputStream out;

   //构造函数
   protected CompressionOutputStream(OutputStream out) {
      this.out = out;
   }

   public void close() throws IOException {
      finish();
      out.close();
   }

   public void flush() throws IOException {
      out.flush();
   }
   public abstract void write(byte[] b, int off, int len) throws IOException;

   public abstract void finish() throws IOException;

   public abstract void resetState() throws IOException;
}

CompressionOutputStream规定了压缩流的对外接口,如果已经有了一个压缩器的实现,能否提供一个通用的、使用压缩器的压缩流实现呢?答案是肯定的,CompressorStream使用压缩器实现了一个通用的压缩流,其主要代码如下:
public class CompressorStream extends CompressionOutputStream {
   protected Compressor compressor;
   protected byte[] buffer;
   protected boolean closed = false;

   //构造函数
   public CompressorStream(OutputStream out,
            Compressor compressor, int bufferSize) {
      super(out);
      ……//参数检查,略
      this.compressor = compressor;
      buffer = new byte[bufferSize];
   }
   ……
   public void write(byte[] b, int off, int len) throws IOException {
      //参数检查,略
      ……
      compressor.setInput(b, off, len);
      while (!compressor.needsInput()) {
         compress();
      }
   }

   protected void compress() throws IOException {
      int len = compressor.compress(buffer, 0, buffer.length);
      if (len > 0) {
         out.write(buffer, 0, len);
      }
   }

   //结束输入
   public void finish() throws IOException {
      if (!compressor.finished()) {
         compressor.finish();
         while (!compressor.finished()) {
            compress();
         }
      }
   }
   ……
   //关闭流
   public void close() throws IOException {
      if (!closed) {
         finish();//结束压缩
         out.close();//关闭底层流
         closed = true;
      }
   }
   ……
}

CompressorStream提供了几个不同的构造函数,用于初始化相关的成员变量。上述代码片段中保留了参数最多的构造函数,其中,CompressorStream需要的底层输出流out和压缩时使用的压缩器,都作为参数传入构造函数。另一个参数是CompressorStream工作时使用的缓冲区buffer的大小,构造时会利用这个参数分配该缓冲区。

CompressorStream.write()方法用于将待压缩的数据写入流中。待压缩的数据在进行一番检查后,最终调用压缩器的setInput()方法进入压缩器。setInput()方法调用结束后,通过Compressor.needsInput()判断是否需要调用compress()方法,获取压缩后的输出数据。上一节已经讨论了这个问题,如果内部缓冲区已满,则需要通过compress()方法提取数据,提取后的数据直接通过底层流的write()方法输出。

当finish()被调用(往往是CompressorStream被关闭),这时CompressorStream流调用压缩器的finish()方法通知输入已经结束,然后进入另一个循环,该循环不断读取压缩器中未读取的数据,然后输出到底层流out中。

CompressorStream中的其他方法,如resetState()和close()都比较简单,不再一一介绍了。

CompressorStream利用压缩器Compressor实现了一个通用的压缩流,在Hadoop中引入一个新的压缩算法,如果没有特殊的考虑,一般只需要实现相关的压缩器和解压器,然后通过CompressorStream和DecompressorStream,就实现相关压缩算法的输入/输出流了。

CompressorStream的实现并不复杂,只需要注意压缩器几个方法间的配合,图3-8给出了这些方法的一个典型调用顺序,供读者参考。

 

0 0