hdfs上传文件大小为零问题解决
来源:互联网 发布:seo公司哪家专业 编辑:程序博客网 时间:2024/06/05 18:52
问题描述:
搭建了一个Hadoop集群,1Master+2Slave。完成后从客户端上传文件,上传后,文件创建,但文件大小为0。Hadoop的log信息如下:
java.io.IOException: File /uploadResource/Resource_103/20170607162133115video.mp4 could only be replicated to 0 nodes instead of minReplication (=1). There are 2 datanode(s) running and 2 node(s) are excluded in this operation.
问题解决:
baidu了错误信息,网上的答案是:
1、Datanode进程没启动
2、Datanode不可达
于是做了一系列的检查测试:
1、在Master和slave上执行
$jps
8468 NameNode
8727 SecondaryNameNode
8921 ResourceManager
7033 TSDMain
6079 Jps
6271 HMaster
flyrish@Aero-Hadoop-Slave-2:~$ jps
2788 NodeManager
6294 Jps
2198 ResourceManager
2023 SecondaryNameNode
2632 DataNode
进程都已启动,没有问题
2、检查LOG里启动信息,各节点启动正常,交与没有问题
3、在Master 服务器上put本地文件:
hapoop fs -put test /test
上传成功,文件大小正常
从上面信息分析,hadoop本身工作正常,客户端上传文件为0的问题 ,应该与网络环境有关。于是分别在Master和客户端上抓包分析,比较本地上传和客户端上传的流程。分析发现,上传文件的过程是:
- 客户端查询文件信息
- Namenode返回应答
- 文件不存在,客户端发create命令
- Namenode创建文件,并返回datanode节点的主机名
- 客户端发送文件到datanode
并不是原来想像的一个流程搞定,对比报文,发现客户端访问datanode节点失败。原来没有想到datanode和客户端有交与,所以datanode的防火墙没有对客户端开放。另外,datanode的主机名没有在客户端的主机名表中,无法解析。
于是,修改了两个slave的防火墙配置,将两个slave的主机名加到客户端主机名表中,再试,上传成功!
- hdfs上传文件大小为零问题解决
- FTPClient上传文件大小为0
- HDFS文件上传:8020端口拒绝连接问题解决!
- IIS7.0上传文件大小为30M限制的修改
- hdfs查看目录大小文件大小
- 2003下,IIS6.0asp无组件上传文件大小限制问题解决办法
- 自定义上传文件大小
- 自定义上传文件大小
- 上传文件大小限制
- 关于上传文件大小问题
- js控制上传文件大小
- 上传前检测文件大小
- 获取上传文件大小
- 限制webwork上传文件大小
- js判断上传文件大小
- PHP上传文件大小限制
- 控制上传文件大小类型
- PHP上传文件大小限制
- 在Eclipse中使用JUnit4进行单元测试(初级篇)
- 【LeetCode】Subsets 系列
- wds无限桥接技术:不接网线就可以让客厅和卧室有2个不同wifi
- jquery-validate插件之resetForm方法清除历史错误提示信息
- c#文件加密程序
- hdfs上传文件大小为零问题解决
- 恐怖的死亡艺术,稻川淳二为自己办了场VR葬礼
- js封装ajax方法
- Android触摸屏事件派发机制详解与源码分析一(View篇)
- QT+FFMPEG播放器——github代码
- Spring-dataJpa实例
- iOS 浮点数格式字符串比较大小 精度问题
- Java程序员们最常犯的10个错误(如数组的操作)
- 【Python学习系列六】Python语言基本语法