spark scala 数据处理程序
来源:互联网 发布:苍南金融软件开发 编辑:程序博客网 时间:2024/05/01 19:22
1、kill任务
hadoop job-kill (job_num)
yarn application -kill (application_num)
2、提交任务
样例如下:
$SUBMIT--class $APP \
--masteryarn \
--driver-memory1G \
--executor-memory 6G \
--num-executors 10 \
--executor-cores4 \
--confspark.default.parallelism=160 \
--confspark.storage.memoryFraction=0.5 \
--confspark.shuffle.memoryFraction=0.4 \
--name"AgetopGenerate Shuguang" \
$JAR $CONF
其中,SUBMIT为spark的spark-submit 程序,如:/data0/spark/spark-2.0.0-bin/bin/spark-submit;APP为jar包的主函数(类)体名,如com.abc.exazmple;JAR为打包的程序位置,CONF为命令行参数。
3、关于2的配置说明
该参数主要针对在集群上启动spark服务的参数说明,其中参数众多,只以2列出的参数部分作说明,因为2中基本上涵盖了一个服务所需的主要参数。
阅读全文
0 0
- spark scala 数据处理程序
- scala 开发spark程序
- 用scala 写spark程序
- kafka->spark->streaming->mysql(scala)实时数据处理示例
- kafka->spark->streaming->mysql(scala)实时数据处理示例
- kafka->spark->streaming->mysql(scala)实时数据处理示例
- kafka->spark->streaming->mysql(scala)实时数据处理案列
- Spark程序进行单元测试-使用scala
- scala-eclipse 编写spark简单程序 WordCount
- 使用Scala写第一个Spark程序
- scala IDE for Eclipse开发Spark程序
- 本地windows跑Scala程序调用Spark
- Spark大数据处理(一) Spark的Scala和python脚本环境搭建
- spark,scala
- scala程序写Spark程序实现黑名单过滤
- java编写WordCound的Spark程序,Scala编写wordCound程序
- 基于spark运行scala程序(sbt和命令行方法)
- 使用IDEA编写基于Scala的spark程序中的常见问题
- Vue中获取组件声明时的name属性
- java电子商务平台 b2b2c o2o
- 第10周项目2- 二叉树构造算法的验证(2)
- hdfs基础操作api
- ntp配置内网集群时间同步
- spark scala 数据处理程序
- 跳频技术科普
- 一个简单好用的不加锁队列,用于单线程单次读取队列元素
- CentOS下搭建Git服务器
- jpg转bmp(使用libjpeg库)
- 第十一周项目四
- android 硬件加速
- maven-管理父类pom
- Sever 2008,2012 如何添加计算机图标到桌面