Eclipse Mars Release (4.5.0)下安装编译Spark2.7.1

来源:互联网 发布:淘宝直播中控台链接 编辑:程序博客网 时间:2024/05/29 04:02

一、当然是下载啦!

提供下载地址:http://www.igniterealtime.org/downloads/source.jsp

这里讲的是不走寻常路的直接下载源码,而不是通过github或者svn~所以直接上图了。


既不想下载github又不想下载svn怎么办呢?看到github的url了吗?

Openfire:git clone https://github.com/igniterealtime/Openfire.gitSmack:git clone https://github.com/igniterealtime/Smack.gitSpark:git clone https://github.com/igniterealtime/Spark.git

答案就在这喽。首先复制Spark后的URL地址即:

https://github.com/igniterealtime/Spark.git

粘贴到浏览器!


二、下载好压缩包之后,打开eclipse安装编译

1. 在Project Explorer中,右键New->Project


2.选择Java Project from Existing Ant Buildfile, 然后点击Next.


3.选择Browse,选择解压缩后的Spark(建议解压缩后就改项目名)下build/build.xml



4.点击Finish,就完成了(我的已经成功导入了,所以无法选中)

5.导入之后,你会发现,它在项目源码包中新建了.settings, .project,.classpath三个文件


6. 报错处理,因为缺少jar包bcprov-jdk13-132.jar


点击下载之后,放入到build/lib/merge下,然后build path->Configure Build Path-> Add External JARs,加入就可以了

三、生成Spark

1.点击Window->Show View->Other->Ant->Ant

2.在Ant控制台下,右键Add Buildfiles,选择Spark下build.xml,双击Spark下release[default]


3. 最终会出现Build Successful


四、配置Spark运行环境

1. 点击Run—>Run Configurations
2. 点击“Main”
Name填写:Spark
Project:Spark(选择Spark工程)
Main class:org.jivesoftware.launcher.Startup(启动类)



3.点击Classpath标签页
选择User Entries ,使得Advanced..按钮变的可用.点击Advanced按钮.在弹出来的Advanced Options窗口,选择Add Folders,再点OK,在Folder Selection窗口选择

  • src/resources
  • src/plugins/fastpath/src/resources
点击OK
  • Arguments:VM arguments 中加入

    • -Djava.library.path=build/lib/dist/windows 引入平台运行环境,根据当前开发的运行环境进行选择,如 win32 win64 Linux。按照自身情况引入相应的 dll 或者 so 等。必须添加。没有的话,windows 平台下会抛出com.lti.civil.CaptureException异常
    • -Dplugin=src/plugins/fastpath/plugin.xml 引入相应的插件配置 xml。
    • -Ddebug.mode=true 开启 Debug 模式,按需添加
    • -Dsmack.debugEnabled=true 开启 Smack Debug 模式,按需添加。添加后,在 Spark 启动后,同时启动 Smack 分析界面,可以用来记录分析 Spark 通信过程的消息包。

      1234
      -Djava.library.path=build/lib/dist/windows-Dplugin=src/plugins/fastpath/plugin.xml-Ddebug.mode=true-Dsmack.debugEnabled=true

设置完毕后,我们就可以按照该 Run config 进行 Run 或者 Debug 了。运行后,就可以看到 Spark 的登录界面了。





五、可能遇到的问题

1. 在配置Run Configurations的时候,JRE配置选项可能会遇到:
JRE not compatible with workspace .class file compatibility
解决办法:
右键项目->Properties->Java Compiler->Compiler compliance level->选择你自己安装的JDK版本

2. 运行ant的时候出现 Specified VM install not found: type Standard VM, name...
解决办法:
关闭eclipse->删除工作空间下 ... / .metadata / .plugins / org.eclipse.debug.core / .launches / *. 下的文件。

3.运行时可能会遇到可能会出现bin目录拒绝访问的异常,原因是 Spark 自带的一个插件LanguagePlugin会在试图在运行目录下面寻找 spark.jar,但是调试时bin目录下缺少 spark.jar。该问题在 spark 安装版本时不会出现,调试时可以直接忽略,或者通过下面的build release生成target\build\lib\spark.jar,然后拷贝至 Eclipse 的项目bin(本地)目录下面

0 0