stop-all.sh 命令无法停止hadoop集群
来源:互联网 发布:刷广告软件 编辑:程序博客网 时间:2024/05/16 14:21
最近一直都在研究 Mahout算法,hadoop集群也没怎么改动;今天突然想停了hadoop 集群,但是发现根本停不下来。执行 ./bin/stop-all.sh 命令一直提示没有可停止的job、task、namenode、datanode、secondarynode。可是输入 jps 命令,发现hadoop 已经启动了,而且 HDFS连接正常。后来在同事的指导下,明白了;原来 hadoop启动后,进程信息默认保存在 /tmp 文件夹。信息如下:
-rw-rw-r-- 1 hadoop hadoop 5 Aug 5 11:04 hadoop-hadoop-datanode.pid
-rw-rw-r-- 1 hadoop hadoop 5 Aug 5 11:04 hadoop-hadoop-jobtracker.pid
-rw-rw-r-- 1 hadoop hadoop 5 Aug 5 11:04 hadoop-hadoop-namenode.pid
-rw-rw-r-- 1 hadoop hadoop 5 Aug 5 11:04 hadoop-hadoop-secondarynamenode.pid
-rw-rw-r-- 1 hadoop hadoop 5 Aug 5 11:04 hadoop-hadoop-tasktracker.pid
而 /tmp 文件夹会定时清空,所以一段时间后,hadoop的进程信息都会被删除掉;这样你下次停止集群的时候,就会停止不了。
解决方法:
1. 参考 stop-all.sh 脚本文件代码,手动停止所有相关进程。
停止顺序: job 、task、namenode、datanode、secondarynode
2. 重新启动集群,再次查看 /tmp 文件夹,你会看到以上进程信息。这个时候执行 stop-all.sh 命令能正常关闭 hadoop集群了。
3. 如果你不想每次都这么麻烦,可以修改脚本代码。
- stop-all.sh 命令无法停止hadoop集群
- bin/stop-all.sh无法停止服务
- bin/stop-all.sh无法停止服务
- Hadoop运行一段时间后无法stop-all.sh
- hadoop相关问题-stop-all.sh
- hadoop stop-all.sh no namenode to stop解决方法
- stop-all.sh
- Hadoop机器运行一段时间后hadoop不能stop-all.sh的问题
- Hadoop机器运行一段时间后hadoop不能stop-all.sh的问题
- 执行stop-dfs.sh后无法停止namenodes、datanodes和secondary namenodes
- hadoop启动命令 start-all.sh失效解决办法
- spark,hadoop,hbase集群无法停止的问题
- hadoop集群停止脚本
- 集群搭建hadoop时,start-all.sh启动tasktracker会报错
- Dubbo2.3.2的服务停止脚本stop.sh源码
- hadoop的stop-all无效解决
- hadoop学习笔记之start-all.sh 无法启动NameNode,DataNode
- 停止启动集群命令
- 整数溢出与程序安全
- HDU1599:find the mincost route(Floyd最小无向环)
- Intent 回调数据步骤
- 如何做一个葫芦在Xbox 360上的VPN工作
- 第九章 后向传播算法(分类)
- stop-all.sh 命令无法停止hadoop集群
- 定制scrollView来处理自动显示与隐藏键盘
- LeetCode OJ - Validate Binary Search Tree
- 黑马程序员 - 学习笔记5 流程控制语句
- 将博客搬至cnblogs
- Struts2.x+Spring3.x+Hibernate4.x 整合(七)整合struts RESTful
- hdu 1426 Sudoku Killer(DFS)
- Android开发环境搭建笔记
- PHPCMS URL规则(频道页(栏目页列表页)二级域名,内容页主域名)