spark是什么,就看看

来源:互联网 发布:盘古数据骗局 编辑:程序博客网 时间:2024/05/16 16:55

Spark是一种计算框架,Spark实现的是实时查询、批处理,流处理功能三合一,经常用它和hadoop这个生态系统进行比较。hadoop的计算框架有mapreduce,map reduce每次计算都会把中间过程存在本地hdfs上,这个比较消耗资源和拖慢进程,spark就是直接将中间计算结果存在内存,所以速度很快(?对内存消耗很大吧,能支持么?)

Spark使用的语言是scala最佳,也支持python,Java是可以用的但却不太推荐(不知道为什么)。

所以作为数据分析员可能只需要懂得一些scala语法或者python的来支持自己能够实现算法或者调用库即可。


图片来自网络
原创粉丝点击