Hadoop通过C的API访问HDFS

来源:互联网 发布:php 删除文件 编辑:程序博客网 时间:2024/05/16 06:16

在HADOOP_HOM下通过ant compile-c++-libhdfs -Dislibhdfs=true(ant是类似于make的工具,主要应该与java,利用build.xml问价),产生libhdfs.so

或者在HADOOP_HOME/src/c++/libhdfs执行:①./configure --enable-shared JVM_ARCH=tune=k8 --prefix=`pwd`/nativelib

make install


在通过Hadoop的C的API 访问HDFS的时候,编译和运行出现了不少问题,在这边,做个总结吧:

系统:Ubuntu11.04,Hadoop-0.20.203.0

样例代码就是参考官方文档中提供到:

[cpp] view plaincopy
  1. #include "hdfs.h"   
  2.   
  3. int main(int argc, char **argv) {  
  4.   
  5.     hdfsFS fs = hdfsConnect("default", 0);  
  6.     const char* writePath = "/tmp/testfile.txt";  
  7.     hdfsFile writeFile = hdfsOpenFile(fs, writePath, O_WRONLY|O_CREAT, 0, 0, 0);  
  8.     if(!writeFile) {  
  9.           fprintf(stderr, "Failed to open %s for writing!\n", writePath);  
  10.           exit(-1);  
  11.     }  
  12.     char* buffer = "Hello, World!";  
  13.     tSize num_written_bytes = hdfsWrite(fs, writeFile, (void*)buffer, strlen(buffer)+1);  
  14.     if (hdfsFlush(fs, writeFile)) {  
  15.            fprintf(stderr, "Failed to 'flush' %s\n", writePath);   
  16.           exit(-1);  
  17.     }  
  18.    hdfsCloseFile(fs, writeFile);  
  19. }  

编译:官网这样描述

See the Makefile for hdfs_test.c in the libhdfs source directory (${HADOOP_HOME}/src/c++/libhdfs/Makefile) or something like:
gcc above_sample.c -I${HADOOP_HOME}/src/c++/libhdfs -L${HADOOP_HOME}/libhdfs -lhdfs -o above_sample

但是我两个方法都试了,不行,后面发现原来是要少了:

[plain] view plaincopy
  1. LIB = -L$(HADOOP_INSTALL)/c++/Linux-i386-32/lib/  
  2. libjvm=/usr/lib/jvm/java-6-openjdk/jre/lib/i386/client/libjvm.so  

所以完整到makefile就是:

[plain] view plaincopy
  1. HADOOP_INSTALL=/home/fzuir/hadoop-0.20.203.0  
  2. PLATFORM=Linux-i386-32  
  3. JAVA_HOME=/usr/lib/jvm/java-6-openjdk/  
  4. CPPFLAGS= -I$(HADOOP_INSTALL)/src/c++/libhdfs  
  5. LIB = -L$(HADOOP_INSTALL)/c++/Linux-i386-32/lib/  
  6. libjvm=/usr/lib/jvm/java-6-openjdk/jre/lib/i386/client/libjvm.so  
  7. LDFLAGS += -lhdfs  
  8.   
  9. testHdfs: testHdfs.c  
  10.     gcc testHdfs.c  $(CPPFLAGS) $(LIB) $(LDFLAGS) $(libjvm) -o testHdfs  
  11.   
  12. clean:  
  13.     rm testHdfs  

好了,编译通过,但是运行的时候出现以下错误信息:

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration

...

Call to org.apache.hadoop.fs.Filesystem::get(URI, Configuration) failed!
Exception in thread "main" java.lang.NullPointerException
Call to get configuration object from filesystem failed!

解决方法:将HADOOP_HOME和HADOOP_HOME/lib下所有到jar包加入/usr/lib/jvm/java-6-openjdk/jre/lib/ext/(其实只要需要到加入,但是不知道哪些是需要的)

最后,恭喜你,问题解决了。

原创粉丝点击