启动关闭hadoop集群和spark集群

来源:互联网 发布:云搜seo 编辑:程序博客网 时间:2024/04/30 16:33

我这只有一个节点的集群

1、在终端执行命令start-all.sh启动hadoop集群,用jps查看是否启动成功:



2、进入spark的sbin目录下,在终端执行命令./start-all.sh启动spark集群,用jps查看是否启动成功:



3、进入spark的sbin目录下,在终端执行命令./stop-all.sh关闭spark集群,用jps查看是否关闭成功:



4、在终端执行命令stop-all.sh关闭hadoop集群,用jps查看是否关闭成功:



1 0
原创粉丝点击