spark无法启动
来源:互联网 发布:orcl 删除重复数据 编辑:程序博客网 时间:2024/06/05 19:20
查看logs,错误描述:
Exception in thread "main" java.lang.NoClassDefFoundError: org.apache.spark.depl
oy.worker.Worker
at java.lang.Class.initializeClass(libgcj.so.10)
Caused by: java.lang.ClassNotFoundException: scala.Function1 not found in gnu.gc
j.runtime.SystemClassLoader{urls=[file:./,file:/home/hxf/spark/spark-1.2.0-bin-h
adoop2.4/sbin/../conf/,file:/home/hxf/spark/spark-1.2.0-bin-hadoop2.4/lib/spark-
assembly-1.2.0-hadoop2.4.0.jar,file:/home/hxf/spark/spark-1.2.0-bin-hadoop2.4/li
b/datanucleus-api-jdo-3.2.6.jar,file:/home/hxf/spark/spark-1.2.0-bin-hadoop2.4/l
ib/datanucleus-rdbms-3.2.9.jar,file:/home/hxf/spark/spark-1.2.0-bin-hadoop2.4/li
b/datanucleus-core-3.2.10.jar], parent=gnu.gcj.runtime.ExtensionClassLoader{urls
=[], parent=null}}
at java.net.URLClassLoader.findClass(libgcj.so.10)
at java.lang.ClassLoader.loadClass(libgcj.so.10)
at java.lang.ClassLoader.loadClass(libgcj.so.10)
at java.lang.Class.initializeClass(libgcj.so.10)
分析错误原因,与libgcj.so.10有关,可能是Java环境没有配置正确,在conf/spark-env.sh中添加一行:export JAVA_HOME=/usr/java/latest解决问题
- spark无法启动
- [解决]Spark集群HA无法正常启动的问题
- 在ec2上部署spark-部署成功后无法启动
- Spark启动
- spark启动
- spark 启动
- Spark生态之Alluxio学习8---集群版搭建问题之集群无法全部启动
- IMF 传奇行动 启动SPARK master无法启动 内存不够问题解决) failed to map 715849728 bytes for committing reserved memory.
- Spark源码无法下载
- spark pyspark无法运行
- spark:spark启动、spark-shell启动及测试--7
- Spark 启动分析
- spark启动时 问题
- 启动spark集群
- spark shell启动脚本
- spark task启动
- Spark 启动方式
- Spark 启动脚本分析
- 【PB】从数据窗口获得数据的方法总结
- jquery ajax的使用
- JVM必备指南
- fatal error C1076: 编译器限制,达到内部堆限制,使用/Zm指定更高的限制
- JAVA缓存的实现
- spark无法启动
- cocos2d-x-- CCCallFunc系列函数的应用
- 编译qt到不同平台的环境变量的设置
- 黑马程序员——Java(this关键字用法)
- "vector iterator incompatible"错误!!!
- Spring 框架概述
- iOS中如何修改UISegmentedControl的背景颜色和字体的颜色UISegmentedControl
- Android NDK环境搭建,需要cygwin
- 我的架构师之路