spark 支持native redis Api(精华)
来源:互联网 发布:软件开发模型优缺点 编辑:程序博客网 时间:2024/06/09 20:03
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]") .setAppName("redis") .buildRedis() val sc = new SparkContext(conf) val inithost = sc.getConf.inithost()//原生的操作
val rediscontext=new RedisContext(sc)//原声native的支持,从redis读取数据,主要.getZSet(),要和redis存入的类型一致(list,zset,hash) val runKeyRDD = sc.fromRedisKeyPattern(inithost, "runkey").getZSet() runKeyRDD.foreach(println) val runTestRDD = sc.parallelize(Seq("DB2")).map(x => (x, x.length.toString)) //RDD的类型为RDD[String,String] sc.toRedisZSET(runTestRDD, "runkey", inithost)}//隐式类implicit class ResiConf(conf: SparkConf) { def buildRedis(): SparkConf = { conf.set("redis.host", "127.0.0.1") conf.set("redis.port", "6379") } def inithost(): (String, Int) = { ("localhost", 6379) }}
1 0
- spark 支持native redis Api(精华)
- 【spark 学习笔记】Spark学习笔记精华(1)
- Redis入门精华(纯干货)
- Spark(十) -- Spark Streaming API编程
- Redis精华篇
- Native Application 开发详解(精华)
- redis (jedis API)
- native API
- [精华]JavaMail API详解
- Spark&redis
- 嵌入式 SQLite3库API编程手册(精华啊)
- Spark API
- Spark API
- 打开 WebRTC 的日志(native api)
- spark单机环境(支持hive)部署
- Kafka + spark stream +redis (createStream + createDirectStream)
- React Native Awesome(汇聚知识,分享精华)
- 讲解如何利用NT Native API获取NT系统的CPU使用率(支持多核)
- HttpUrlConnection两种请求数据的方式get和post提交数据
- 配置JDK环境变量
- Day13:What did I do today?
- Day14:Interview
- orcl数据库命令——前篇
- spark 支持native redis Api(精华)
- Day15:Another lazy day
- 30万奖金的HackShanghai, 大学生程序员,你们准备好了吗?
- HTML+CSS基础 form-input中的type属性checkbox 显示一个打钩的多选框框
- 字符串
- 编程题 电话号码分身
- MATLAB 常见取整函数
- hdu 5904 LCIS(简单dp)
- Day16:PWN