hadoop源码解读二

来源:互联网 发布:thinkphp开发cms 编辑:程序博客网 时间:2024/06/10 23:49

package HelloDFS;import java.io.IOException;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;public class TestDFS {public static void main(String[] args) {// TODO Auto-generated method stubtry{Configuration conf=new Configuration();conf.set("fs.default.name","hdfs://localhost:9000");FileSystem hdfs=FileSystem.get(conf);FSDataOutputStream outputstream =hdfs.create(new Path("/user/hadoop/input/testDFS2.txt"));System.out.println("文件创建完成");byte[] b="Hello HDFS2!".getBytes();outputstream.write(b);outputstream.flush();outputstream.close();System.out.println("文件写入完成");}catch(Exception e){e.printStackTrace();}}}

hadoop中的dfs读写操作

在eclipse下创建一个hadoop项目,然后建立一个java文件TestDFS类,里面包含main方法;首先是

Configuration conf =new Configuration();

conf.set("fs.default.name","hdfs://localhost:9000");

FileSystem hdfs =FileSystem.get(conf);这个会抛出运行时异常;

初始化对象,包括确定文件系统类型和名称;

FSDataOutPutStream outputstream=hdfs.create(new Path("/user/hadoop/input/testDFS.txt"));也会抛出异常,所以在前面加try,catch

byte[ ] b="HelloDFS!".getBytes();

outputstream.write(b);写入 b里的数据

outputstream.flush(); 刷新缓冲区;

outputstream.close()关闭流;

System.out.println("DFS写文件完成");

主要流程和hadoop的文件读写类似;,有以下步骤:   创建Configuration对象,然后设置了个键值对,指定了个文件系统,指定文件路径,也就是创建文件,创建文件写入流,

写入该路径的文件,刷新缓冲区,关闭流;


现在不知道configuration是什么东西,会在后面细讲;

具体代码在上面;



原创粉丝点击