spark1.6从hdfs上读取文件运行wordcount
来源:互联网 发布:17年10美国非农数据 编辑:程序博客网 时间:2024/05/29 14:57
从hdfs上读取文件并运行wordcount
[root@hadoop14 app]# hadoop fs -put word.txt /yuhui
scala> val file=sc.textFile("hdfs://hadoop14:9000/yuhui/word.txt")
scala> val count=file.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_)
scala> count.collect()
结果:
res1: Array[(String, Int)] = Array((cccc,2), (aaaa,2), (bbb,2), (ddd,1))
0 0
- spark1.6从hdfs上读取文件运行wordcount
- spark从hdfs上读取文件运行wordcount
- spark从hdfs上读取文件运行wordcount
- spark从hdfs上读取文件运行wordcount
- Spark1.4从HDFS读取文件运行Java语言WordCounts
- Spark1.4从HDFS读取文件运行Java语言WordCounts并将结果保存至HDFS
- spark streaming 的wordcount程序,从hdfs上读取文件中的内容并计数
- sprak单机安装,从hdfs读取文件进行wordcount并写入hdfs
- HDFS——如何从HDFS上读取文件内容
- JAVA实现:将文件从本地上传到HDFS上、从HDFS上读取等操作
- Java从hdfs上读取文件中的某一行
- 从hbase读取内容到hdfs文件上
- 从HDFS上读取带lzo压缩的SequenceFile文件
- 读取hdfs上的文件
- Spark读取HDFS文件,文件格式为GB2312,实现WordCount示例
- mapreduce Wordcount输入文件在hdfs上的实例
- 从hdfs中读取文件到hbase
- 从hdfs读取文件存到hbase
- [Python编程]正则表达式
- 创建简单springMVC项目
- 【java基础】String Pool
- 没有需求,我们开发个毛?
- html的经验
- spark1.6从hdfs上读取文件运行wordcount
- 简单字符设备驱动程序
- apache优化配置
- UVA oj 490 Rotating Sentences(字符串)
- maven基本命令(生成web项目)
- Java Zip 压缩、解压
- Android Tcp服务器端
- bzoj3771 Triple
- 封装findviewbyid