spark-shell启动的问题解决

来源:互联网 发布:新威胜电能表调试软件 编辑:程序博客网 时间:2024/06/09 08:20

                                            spark-shell启动的问题解决


     今儿在启动spark-shell的时候模型奇妙的出现如下几个问题

    1)端口占用:4040端口被占用,我们知道这里的4040是worker的端口使用,但是被占用啦,如下图所示:


 

     使用如下命令:netstat -ap |grep 4040

tcp6       0      0 [::]:4040               [::]:*                  LISTEN      2456/java 

      发现被进程id 2456所占用了端口。干掉他

      kill   -9   2456


     2)因磁盘空间不足,内存不足,系统掉电等其他原因导致dataNode datablock丢失.从而进入了安全模式,使用如下命令bin/hadoop dfsadmin -safemode leave。再继续扫描磁盘,删除坏块儿bin/hdfs fsck / -delete之后就可以使用了。

Minimally replicated blocks:   0 (0.0 %)
 Over-replicated blocks:        0 (0.0 %)
 Under-replicated blocks:       0 (0.0 %)
 Mis-replicated blocks:         0 (0.0 %)
 Default replication factor:    3
 Average block replication:     0.0
 Corrupt blocks:                43
 Missing replicas:              0
 Number of data-nodes:          0
 Number of racks:               0
FSCK ended at Fri Mar 25 20:51:22 PDT 2016 in 103 milliseconds

0 0