hadoop 读写文件
来源:互联网 发布:淘宝怎么让别人代付 编辑:程序博客网 时间:2024/05/01 19:22
import java.io.IOException;
import java.io.InputStream;
import java.util.StringTokenizer;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.Reporter;
public class FileSystemCat{
public static void main(String arg[])throws Exception
{
String inuri = arg[0];
int len = Integer.parseInt(arg[1]);
String outuri = arg[2];
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(URI.create(inuri), conf);
FSDataInputStream in = null;
FSDataOutputStream out = null;
try
{
in = fs.open(new Path(inuri));
out = fs.create(new Path(outuri));
byte[] buffer = new byte[len];
in.read(0,buffer,0,len); // 第一个零为position 第二个零为偏移 len 为读取长度
String tmp = new String(buffer);
out.write(tmp.getBytes());
System.out.println("File read: " + tmp);
System.out.println("Hello from hadoop");
}
finally
{
IOUtils.closeStream(in);
IOUtils.closeStream(out);
}
}
import java.io.InputStream;
import java.util.StringTokenizer;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.Reporter;
public class FileSystemCat{
public static void main(String arg[])throws Exception
{
String inuri = arg[0];
int len = Integer.parseInt(arg[1]);
String outuri = arg[2];
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(URI.create(inuri), conf);
FSDataInputStream in = null;
FSDataOutputStream out = null;
try
{
in = fs.open(new Path(inuri));
out = fs.create(new Path(outuri));
byte[] buffer = new byte[len];
in.read(0,buffer,0,len); // 第一个零为position 第二个零为偏移 len 为读取长度
String tmp = new String(buffer);
out.write(tmp.getBytes());
System.out.println("File read: " + tmp);
System.out.println("Hello from hadoop");
}
finally
{
IOUtils.closeStream(in);
IOUtils.closeStream(out);
}
}
}
主要实现:
从hdfs上读取文件,并指定读取长度,将读取的数据输出屏幕并写到一个写的文件内。
- hadoop 读写文件
- hadoop读写文件
- hadoop文件读写示例
- hadoop HDFS读写文件
- Hadoop进行读写文件
- hadoop文件读写过程
- Hadoop读写Hdfs系统文件
- hadoop文件的读写流程
- Hadoop 读写文件源码分析
- hadoop学习笔记--hadoop读写文件过程
- hadoop 在hdfs中读写文件
- Java 编程读写 Hadoop Sequence 类型文件
- Hadoop读写文件时内部工作机制
- Hadoop读写文件时内部工作机制
- Hadoop之HDFS文件读写过程
- Hadoop读写文件时内部工作机制
- hdfs——hadoop文件读写操作
- hadoop利用FileSystem API 执行hadoop文件读写操作
- jQuery判断网页中的id是否有重复的
- Android的Window类详解
- XCode4报internal error
- 怎么让SOA以业务为中心?
- 404伪静态函数类
- hadoop 读写文件
- Sliverlight下多语言的实现的三种情况
- c++ map简单使用
- uC/O中消息量函数分析OS_EVENT *OSSemCreate (INT16U cnt)及OSIntNesting的作用
- WPF界面设计技巧—实现不规则动画按钮
- 使用【AudioManager】类控制音量
- 使用Google工具生成随机验证码
- Apartment STA MTA FREE 等
- 学习的技术