spark-环境配置出错

来源:互联网 发布:知乎招聘 编辑:程序博客网 时间:2024/06/07 11:08

第一次接触spark, 在下载了spark包并且配置好了spark的环境变量后运行出错

                  spark-环境配置出错


原因是未配置hadoop的环境变量

解决方案:

   下载hadoop相关包https://github.com/srccodes/hadoop-common-2.2.0-bin

   配置HADOOP_HOME 环境变量,我这里是D:\developer\hadoop-common-2.2.0-bin-master

 再次运行spark命令,错误解决了

 spark-环境配置出错


0 0