关于spark history server 无法显示完成的JOB的问题解决
来源:互联网 发布:疯狂的程序员绝影真人 编辑:程序博客网 时间:2024/05/19 09:47
该问题主要是由于访问HDFS的访问权限导致的,表现为配置的hdfs上的/user/spark/applicationHistory目录下面可以生成具体的application历史信息,但是history server ui上却无法显示,表示这个目录有写入权限没有读取权限,为什么有写入权限呢?因为我执行spark-submit的时候export HADOOP_USER_NAME=hdfs了,hdfs用户是分布式文件系统的超级用户,所以有写入权限,写入的文件的用户和组分别是hdfs和spark。然后我启动history server用的是系统的root用户启动的,所以root用户没有读取/user/spark/applicationHistory目录下面文件的权限。
所以正确方式为:
启动history server:
cd $SPARK_HOME
chown -R spark:spark logs
sudo -u spark SPARK_HISTORY_OPTS=-Dspark.history.ui.port=18088 sbin/start-history-server.sh hdfs://n1:8020/user/spark/applicationHistory
停止history server:
sudo -u spark sbin/stop-history-server.sh
1 0
- 关于spark history server 无法显示完成的JOB的问题解决
- spark history-server的使用
- spark history server集群配置与使用(解决执行spark任务之后没有显示的问题)
- 通过 Job History Server 的 web console 查阅在 Yarn 上 MapReduce job 的 job conf xml 文件
- Spark History Server之坑爹的360安全浏览器
- Spark History Server之坑爹的360安全浏览器
- spark 查看 job history 日志
- Spark 查看 job history 日志
- 配置Spark history server
- spark history server 配置
- spark history server学习
- Spark History Server配置
- 关于kettle加载job找不到转换文件路径的问题解决
- 大数据 IMF 传奇 spark -history在分布式 集群 的安装部署 及问题解决
- Hadoop运行成功但最后显示Redirecting to job history server...Client: Retrying connect to server:
- Hadoop,Spark: 通过Yarn logs命令收集已完成的Job日志
- spark job server使用方法
- spark job server原理
- SSH网上商城之用户注册
- 数据库日期
- ORM进阶:使用hql优化查询
- 堆排序
- 1496:Equations
- 关于spark history server 无法显示完成的JOB的问题解决
- 《如何阅读一本书》!
- UVA 11280 Flying to Fredericton
- test7.14
- rapidjson常见使用示例
- javaweb用户密码的封装
- MongoDB命令行与进程
- lua - string【方法】
- 兼容C++的C头文件书写方式