spark杂记
来源:互联网 发布:网络直播平台列表 编辑:程序博客网 时间:2024/05/01 19:28
1.spark可以采用注册的方式将类序列化,在spark程序中,如果使用的第三方jar包的class没有序列化,可以用写一个MyRegistretor类,继承KryoRegistretor,重写其中的registerClass方法,将需要注册的类写入:
class HbaseRegistrator extends KryoRegistrator {
override def registerClasses(kryo: Kryo) {
kryo.register(classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable])
kryo.register(classOf[org.apache.hadoop.hbase.client.Result])
}
}
2.官网介绍的序列化方法:
http://spark.apache.org/docs/latest/tuning.html
val conf = new SparkConf().setMaster(...).setAppName(...)
conf.registerKryoClasses(Array(classOf[MyClass1], classOf[MyClass2]))
val sc = new SparkContext(conf)
conf.registerKryoClasses(Array(classOf[MyClass1], classOf[MyClass2]))
val sc = new SparkContext(conf)
spark参数优先度(顺序代表优先度高低):
1.通过类SparkContext设置的参数。
2.使用
spark-submit
or spark-shell
的时候,设置在执行脚本的时候的参数,例如./bin/spark-submit --class my.main.Class \ --master yarn-cluster \ --jars my-other-jar.jar,my-other-other-jar.jar my-main-jar.jar app_arg1 app_arg2
这类在spark-submit中的参数。
3.设置在spark-defaults.conf中的参数,个别运行参数设置在spark-env.sh
spark源码中文件:
./docs/_layouts/global.html中有详细的参数说明,这个文件要用ie打开
0 0
- spark杂记
- Spark杂记
- spark:学习杂记--23
- spark:学习杂记--24
- spark:学习杂记--29
- spark杂记(一)
- spark:学习杂记--36
- spark:学习杂记--37
- spark:学习杂记--38
- spark:学习杂记--39
- spark:学习杂记--42
- spark:随机学习杂记--21
- spark:学习杂记Hbase--33
- spark:学习杂记+案例--40
- spark:学习杂记+案例--41
- spark:学习杂记+快速排序--26
- spark:学习杂记+仿写案例--28
- spark:学习杂记+仿写案例--35
- C#中设置状态栏(statusStrip)的布局
- Spark源码导入IDE
- 求最小公倍数以及最大公因子
- Python:当前路径下文件的复制
- ScrollView(创建滚动View)
- spark杂记
- Maven 私服 Nexus 界面配置
- robomongo 连不上mongodb 权限问题
- C# WinForm中工具栏上如何既显示文字又显示图片
- 百度地图应用:根据两个地址的经纬度求距离;根据地址求经纬度;根据经纬度求地址
- Spark指令
- Flask源码阅读(二)——启动服务器(run方法)
- Qt 就是牛逼 利用connect 函数,对比 OC 的自身代理的方法,巧妙躲过了代理
- 在windows下配置eclipse的spark调试环境