Spark创建RDD
来源:互联网 发布:提高英语的软件 编辑:程序博客网 时间:2024/05/20 23:08
package com.wpimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}/** * Spark core 创建RDD */object test0615 { def main(args: Array[String]) { val conf = new SparkConf().setAppName("RddCreate").setMaster("local"); val sc = new SparkContext(conf); val data = Array(1,2,3,4,5,6,7,8,9); /** * 并行转化 *sc.parallelize方法 =>数组中的每个元素变成RDD中的每一行 */ //1)使用默认分片数 val rdd1: RDD[Int] = sc.parallelize(data); //2)自定义分片数,集群中的每个CPU一般对应运行2~4个分片 val rdd2: RDD[Int] = sc.parallelize(data,3); /** * 外部文件转化 * sc.textFile * 注意:该方法可以读取 多个文件、文件夹、压缩文件、通配符文件 * 默认为每一个block创建一个分片,也可指定,但指定的分片数不能小于block数。 */ //1)使用默认分片数 val rdd3 = sc.textFile("Input/data.txt");//当前目录下文件 val rdd4 = sc.textFile("hdfs://hdfsnode1:8020/input/wc.java"); //2)指定分片 val rdd6 = sc.textFile("hdfs://hdfsnode1:8020/input/wc.java",6); }}
0 0
- Spark创建RDD
- Spark RDD创建操作
- Spark RDD 创建
- spark创建RDD方式
- Spark RDD 的创建 & Accumulators
- Spark算子:RDD创建操作
- Spark算子:RDD创建操作
- Spark RDD使用详解2--RDD创建方式
- spark源码剖析--RDD创建和本质
- Spark 源码解析 ----RDD创建与本质
- spark使用parallelize方法创建RDD
- spark中创建RDD的方式
- Spark学习笔记 --- RDD的创建
- spark--使用parallelize方法创建RDD
- Spark程序设计—创建初始RDD
- 用spark(spark-shell),从本地文件创建一个RDD
- spark(7)-spark RDD的创建(course15)
- 【spark RDD】RDD编程
- Activity的简介
- 论文:Deep Face Recognition 概括
- ACM随笔------计蒜客 求平方根
- LeetCode:Largest Rectangle in Histogram
- 文字缓存
- Spark创建RDD
- webview jsoup解析html
- Android之Activity
- 常用Sublime小技巧
- java反射机制
- 面试总结JavaScript
- linux基础——进程和线程
- Python 进阶学习笔记2
- 第16周阅读程序4(3)