Gradle打jar包,包含所有依赖

来源:互联网 发布:平湖校区网络教学平台 编辑:程序博客网 时间:2024/04/30 22:42

前言

最近被gradle折腾的欲仙欲死。

gradle想把所有依赖打进jar包主要有两种方式:一种是重写jar动作,一种是用第三方插件。

为了装x,我一直都是用的第一种方式,结果出了问题解决不了,为了不影响进度,只能先用第三方了。

重写jar动作

主要是into这一句,可以参照gradle的api文档。里面专门讲了这一块。

这种方式生成的jar包,是把所有的依赖全部打进了lib中。我一直在用这种方式打包。

然后在用spark-submit提交任务的时候,仍然会出现缺包的问题,比如我在运行spark-streaming程序的时候,就是死活找不到KafkaUtil$。但是相关的jar包的确是打进去了,百思不得其解。

所以就用了下面这种方式。

jar {    manifest {  //incubating版本,以后版本可能会改API        attributes("Main-Class": "com.KafkaWordCount",                   "Implementation-Title": "Gradle")    }    into('lib') {        from configurations.runtime    }}

shadow

贴了一整个我的测试程序。

这种方式在使用spark提交任务的时候就OK了。

plugins {    id 'com.github.johnrengelman.shadow' version '1.2.3'    id 'java'    id 'scala'    id 'idea'    id 'application'}group 'com.lagou'version '1.0-SNAPSHOT'sourceCompatibility = 1.7targetCompatibility = 1.7mainClassName="com.KafkaWordCount"repositories {    mavenLocal()  //使用maven本地库    mavenCentral()}ext{    scala_version = '2.10.6'    kafka_version = '0.8.2.2'    spark_version = '1.6.0'}//使用shadow插件打包,代替jar功能。jar {    manifest {  //incubating版本,以后版本可能会改API        attributes("Main-Class": "com.KafkaWordCount",                   "Implementation-Title": "Gradle")    }}dependencies {    //scala    compile "org.scala-lang:scala-library:$scala_version"    compile "org.scala-lang:scala-compiler:$scala_version"    //spark    compile "org.apache.spark:spark-core_2.10:$spark_version"    compile "org.apache.spark:spark-streaming_2.10:$spark_version"    compile "org.apache.spark:spark-streaming-kafka_2.10:$spark_version"    //kafka    compile "org.apache.kafka:kafka_2.10:$kafka_version"    compile "org.apache.kafka:kafka-clients:$kafka_version"    //junit    testCompile group: 'junit', name: 'junit', version: '4.11'}
0 0