eclipse写文件入hdfs失败
来源:互联网 发布:js金沙.com 编辑:程序博客网 时间:2024/06/05 05:25
eclipse写文件入hdfs失败
在hadoop平台下基于eclipse运行oryx程序时,报如下错:
java.lang.RuntimeException: Cannot create job output directory /tmp/crunch-1820027447
at org.apache.crunch.impl.dist.DistributedPipeline.createTempDirectory(DistributedPipeline.java:318)
at org.apache.crunch.impl.dist.DistributedPipeline.<init>(DistributedPipeline.java:93)
at org.apache.crunch.impl.mr.MRPipeline.<init>(MRPipeline.java:97)
at com.cloudera.oryx.computation.common.JobStep.createBasicPipeline(JobStep.java:330)
at com.cloudera.oryx.als.computation.merge.MergeIDMappingStep.createPipeline(MergeIDMappingStep.java:50)
at com.cloudera.oryx.computation.common.JobStep.run(JobStep.java:187)
意为无法写入。推测错误有可能时内存不足或者权限问题。排除内存不足的原因后,解决权限问题方案如下:
首先用root身份在hdfs上创建/tmp文件夹,这样,/tmp的owner是root。然后,将/tmp的权限作如下修改:
bin/hadoop fs -chown -R ubuntu:supergroup /usr
注:这里的ubuntu是eclipse的用户。然后再运行oryx,错误消失。
出现这个错误可能是hadoop安装时是root身份安装的。
0 0
- eclipse写文件入hdfs失败
- HDFS写文件解析
- HDFS写文件解析
- hdfs写文件过程
- HDFS写文件解析
- HDFS写文件过程
- hdfs写文件流程
- 【HDFS】文件入Trash-rename操作
- HDFS dfsclient写文件过程
- HDFS写文件过程分析
- HDFS写文件过程分析
- HDFS写文件过程分析
- 【Hadoop--03】HDFS写文件
- 函数写CBitmap 入文件
- 集群datanode节点失败导致hdfs写失败
- hadoop开发:HDFS上传文件失败原因
- hadoop开发:HDFS上传文件失败原因
- 采用文件流写HDFS大文件
- ie7 去除iframe 边框
- from nova to ironic(6)
- MITK Tutorial--Step10: Adding New Interaction
- Big Picture
- 移动端web产品开发框架appframework浅探
- eclipse写文件入hdfs失败
- 第六周项目零:阅读程序(1):结构函数和析构函数
- BMFont中文字体图集制作的方法~(for unity ngui)
- Unable to execute dex: Multiple dex files define 解决方法
- 东半球最好的TV桌面开源项目
- AFNetworking图片缓存问题<转>
- pom.xml error
- magento 的 XML 布局文件说明
- 关于shell变量的基础概念