spark之基础学习篇:load文件 — WordCount
来源:互联网 发布:网络语言一米是多少钱 编辑:程序博客网 时间:2024/06/02 04:40
摘 自: http://bbs.easysoo.cn/?p=463
本节主要讲解spark加载不同的文件格式的方法,并且从local模式和cluster模式进行说明。
1、加载txt文件
1234567891011121314151617
/** * txt格式:以空格分割 */import org.apache.spark.{SparkContext, SparkConf}object WordCount { def main(args: Array[String]) { val conf = new SparkConf().setAppName("txtwd") val path = "file:///usr/local/spark/sbin/p.txt" //local模式 //val path = "hdfs://usr/spark/p.txt" //集群模式 val sc = new SparkContext(conf) sc.textFile(path).flatMap(_.split(" ")).map(x => (x, 1)) .reduceByKey(_ + _).take(10).foreach(println) sc.stop() }}
2、加载json文件
123456789101112131415161718192021
/** * json格式:{"name":"xxx","age":12} */import org.apache.spark.SparkContextobject TestSql { def main(args: Array[String]) { val sc = new SparkContext() val sqlContext = new org.apache.spark.sql.SQLContext(sc) val path = "file:///usr/local/spark/sbin/p.json"//local模式 //val path = "hdfs://usr/spark/p.json" //集群模式 val people = sqlContext.jsonFile(path) people printSchema() people.registerTempTable("people") sqlContext.sql("select name,age from people where age > 10").collect.foreach(println) }}
3、加载parquet文件
>>>>未完,请浏览下节
0 0
- spark之基础学习篇:load文件 — WordCount
- Spark学习之WordCount
- spark学习之WordCount测试
- Spark Streaming基础学习【一】WordCount
- Spark学习1-wordcount
- spark入门之wordcount
- Spark之WordCount
- Spark初试之WordCount
- Spark之WordCount
- Spark入门之WordCount
- Spark之wordcount
- Spark之WordCount
- Spark之WordCount
- Spark之wordcount
- spark学习03之wordCount统计并排序(java)
- spark streaming初试之wordcount
- Spark之java操作WordCount
- Spark之java操作WordCount
- mybatis教程
- 自定义View-跑马灯效果
- OpenMP和MPI并行模式的区别?
- 聊一聊Android 6.0的运行时权限
- DropDownList绑定动态数据并显示已经选中的数据
- spark之基础学习篇:load文件 — WordCount
- 记录一下 PDO与 PDO_MYSQL 安装 经历
- ButterKnife的使用
- IntelliJ IDEA15 激活
- Servlet入门第二个例子
- 提交表单时,固定jsp页面<select>标签下option的值不刷新
- Maven使用yuicompressor-maven-plugin打包压缩css、js文件
- android 六个主要密度之间的缩放比
- Java命令行程序构建工具-airline