HDFS和本地文件系统文件互导
来源:互联网 发布:网络与言论自由 编辑:程序博客网 时间:2024/06/06 07:19
一、从本地文件系统到HDFS
使用hdfs自带的命令
命令:hdfs dfs -copyFromLocal inputPath outputPath
inputPath:本地文件目录的路径
outputPath:hdfs文件目录路径,即存储路径
二、从HDFS到本地文件系统
命令:hdfs dfs -copyToLocal inputPath outputPath
inputPath:hdfs文件目录
outputPath:本地文件文件目录,即本地存储路径
因为Hbas和Hive都在存储在HDFS中,所以可以通过该条命令可以把Hbase和Hive存储在HDFS中的文件复制出来。但是经过实践,通过这种方式复制出来的Hbase文件是乱码。Hive里的文件有时候也会乱码,这取决于Hive数据的插入方式。
三、文件在HDFS内的移动
1、从Hbase表导出数据到HDFS
命令:hbase org.apache.hadoop.hbase.mapreduce.Export tableName outputPaht
例子:hbase org.apache.hadoop.hbase.mapreduce.Export test /user/data
test为需要从Hbase中导出的表,/user/data为hdfs上的路径,即存储路径,如果最后一个参数有前缀file://
则为本地上的文件存储系统
2、从HDFS导入到Hbase表中,需要事先建立好表结构
命令:hbase org.apache.hadoop.hbase.mapreduce.Export tableName inputPaht
例子:hbase org.apache.hadoop.hbase.mapreduce.Import test1 /temp/part-m-00000
通过前面的上篇博客,通过Hive的外部表和托管表的运用可以将Hbase中表导出,并且不会乱码。
- HDFS和本地文件系统文件互导
- 合并HDFS和本地文件系统中的小文件
- Hadoop入口FileSystem HDFS操作 本地文件合并到HDFS和HDFS文件合并
- Spark hello word(加载本地文件和加载hdfs文件)
- hdfs mount为linux本地文件系统
- 合并本地文件到HDFS文件中
- 本地文件和服务器文件互传
- flash如何同时访问本地文件系统和网络文件
- flash如何同时访问本地文件系统和网络文件
- spark 利用hdfs与本地文件系统的时间比较
- linux hadoop mount 加载HDFS到本地文件系统
- HDFS文件管理系统
- Spark核心编程:创建RDD(集合、本地文件、HDFS文件)
- talend 将本地文件或者mysql文件上传到hadoop/hdfs
- 上传本地文件到HDFS
- Flume:本地文件到HDFS
- spark 本地文件上传hdfs
- 上传本地文件到HDFS
- mybatis学习七整合spring
- RecyclerView加下拉刷新
- Banner
- 数字货币开发发展过程中从0-1的的历史
- 第十六天 函数(上)
- HDFS和本地文件系统文件互导
- Node.js url模块
- 16_集合框架
- [NOIP2000真题][洛谷1017]进制转换
- 20个阶梯,每次最多走三个阶梯,问爬上最顶端有多少种走法?
- Android NDK编程入门
- 潢川一游
- 【51Nod1425】减减数
- JavaScript面向对象技术·原型与原型链