Spark快速安装与部署运行
来源:互联网 发布:有深度的动漫 知乎 编辑:程序博客网 时间:2024/05/16 11:10
Spark快速安装与部署运行
1. Stand-alone-Mode Deployment
- Spark Standalone Mode
# 下载最新版本Spark 2.1.0-bin-hadoop2.7 [released (Dec 28, 2016)]wget http://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.7.tgz# 下载最新稳定版 2.0.2-bin-hadoop2.7 [released (Nov 14, 2016)] <On>wget http://d3kbcqa49mib13.cloudfront.net/spark-2.0.2-bin-hadoop2.7.tgz# 启动 Master 节点并绑定 MasterUI 的端口为 8090./sbin/start-master.sh --webui-port 8090# 启动 Slave 节点,需要指定 master 的地址, 默认为 spark://<HOSTNAME>:7077# ./sbin/start-slave.sh <master-spark-URL>./sbin/start-slave.sh spark://host29:7077# 链接 spark-shell# ./bin/spark-shell --master spark://IP:PORT./bin/spark-shell --master spark://host29:7077
2. Deployment Hadoop Cluster [HDFS]
- Hadoop: Setting up a Single Node Cluster
wget http://apache.fayea.com/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz# etc/hadoop/hadoop-env.shexport JAVA_HOME="/home/zhubolong/local/jdk1.8.0_102"# etc/hadoop/core-site.xml<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://ict24:8020</value> </property></configuration># etc/hadoop/hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>1</value> </property></configuration>$ bin/hdfs namenode -format$ sbin/start-dfs.sh
3. Spark Submit
- init.py
from pyspark import SparkConf, SparkContextconf = SparkConf().setMaster("spark://host29:7077").setAppName("My SparkApp Python")sc = SparkContext(conf = conf)
- App.java
package com.ict.golaxy;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaSparkContext;public class App { public static void main( String[] args ) { // Create a Java Spark Context SparkConf conf = new SparkConf().setMaster("spark://host29:7077").setAppName("My SparkApp Java"); JavaSparkContext sc = new JavaSparkContext(conf); }}
- InitDemo.scala
package com.ict.golaxy;import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.SparkContext._object InitDemo { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("spark://host29:7077").setAppName("My SparkApp Scala") val sc = new SparkContext(conf) }}
# pythonspark-submit init.py# scalasbt clean compile packagespark-submit --class com.ict.golaxy.InitDemo ./target/scala-2.11/learning-spark-mini-example_2.11-0.0.1.jar# javamvn archetype:generate -DgroupId=com.ict.golaxy -DartifactId=sparkdemo -DarchetypeArtifactId=maven-archetype-quickstart -DinteractiveMode=falsemvn clean compile packagespark-submit --class com.ict.golaxy.App ./target/sparkdemo-1.0-SNAPSHOT.jar
0 0
- Spark快速安装与部署运行
- Spark安装与部署
- Spark学习笔记-安装部署与运行实例
- Spark学习笔记-安装部署与运行实例
- Spark部署与job运行
- spark 安装与运行
- Spark部署与程序运行示例
- Spark-基础-Spark编译与部署--Spark编译安装
- 部署、编译、运行spark
- Spark-基础-Spark编译与部署--Hadoop编译安装
- Spark编译与部署(下)--Spark编译安装
- spark集群与spark HA高可用快速部署 spark研习第一季
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Spark部署与开发环境搭建jjar运行
- Spark快速入门指南 – Spark安装与基础使用
- Spark快速入门指南 – Spark安装与基础使用
- Spark快速入门指南 – Spark安装与基础使用
- 关于整理工作中用到的链表和哈希表的简单操作
- 1014
- 数据分析的能力体系和进阶路线
- 统计数字限时增长效果实现:------------简单有效版(配合JQ使用)
- php乱码问题解决
- Spark快速安装与部署运行
- getMethods getDeclaredMethods区别
- assets目录下apk的安装
- 1. Two Sum
- android 的@androi与?android区别
- WebRTC有前途吗?
- java浮点数比较
- 聘用合同与劳动合同的关系
- 选择排序