减少spark job jar包的大小
来源:互联网 发布:js调用android代码 编辑:程序博客网 时间:2024/05/16 12:58
利用java写spark job,工程结构为maven,每次生成的jar都比较大。
spark job 包过大带来以下缺点:打包时间长、jar包上传慢、job启动比较慢。
本文介绍jar包瘦身方法:
观察臃肿的jar包,发现大部分都是spark相关的jar比较大,因此打包时去掉即可。
- 首先,缓存spark-assembly 包到hdfs,方法见本文。
然后, 修改代码工程的pom文件,将spark相关的
dependency
的scope
修改为provided
例如:
一下依赖都可改为修改为provided
(默认为compile
)<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>${spark.version}</version> <scope>provided</scope> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming_2.10</artifactId> <version>${spark.version}</version> <scope>provided</scope> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming_2.10</artifactId> <version>${spark.version}</version> <scope>provided</scope> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.10</artifactId> <version>${spark.version}</version> <scope>provided</scope> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.10</artifactId> <version>${spark.version}</version> <scope>provided</scope> </dependency>
验证,再次打包 发现已经从150M变成了20M左右,减肥成功。提交到集群运行正常如初。
0 0
- 减少spark job jar包的大小
- 缓存jar包来提升spark on Yarn job的提交速度
- 关于spark利用jar包跑job的一些总结(一)
- 关于spark利用jar包跑job的一些总结(二)
- 减少编译出来的包大小
- 如何减少APK包的大小
- 减少unity包大小
- APK减少包体大小
- 搭建SAE的本地环境,减少war包的大小
- iphone ios 如何减少安装包的大小
- iphone ios 如何减少安装包的大小
- 性能优化:减少应用程序安装包的大小
- 怎样减少 Android 应用包 60% 的大小?
- 怎样减少 Android 应用包 60% 的大小?
- Unity3D如何减少安装包大小
- iOS ipa包减少大小方法
- Unity3D如何减少安装包大小
- Android 减包 - 减少APK大小
- app内存优化
- 数据结构与算法:C++实现归并排序
- Shell中字符串的截取方法
- python 本地数据获取
- centos 6.4 安装emacs 24.5
- 减少spark job jar包的大小
- 百度全面回应“魏则西事件”:竞价排名不光看价格
- 银行卡号展示时需要将中间的数字加密
- HDU 1285 确定比赛名次(拓扑排序)
- 用git提交修改和新增的代码到github
- 知道这20个正则表达式,能让你少写1,000行代码
- 安卓动画(Animation)总结
- 爬取京东商品价格和评论数
- VMware Workstation环境下的Linux网络设置