单机搭建基于Hadoop的Spark环境
来源:互联网 发布:重庆网上选车牌号软件 编辑:程序博客网 时间:2024/04/28 10:16
Spark是运行在yarn(也就是hadoop,一般特指资源管理器)上的应用,前面的一篇文章中已经搭好了yarn+hdfs,接下来的配置就很简单了。
- 从官网下载spark-binary
- 解压后重命名
conf/spark-env.sh.template
为conf/spark-env.sh
- 配置:添加一行类似于这样的
HADOOP_CONF_DIR=~/tools/hadoop-2.6.2/etc/hadoop
- 以yarn-cluster模式提交一个测试任务(spark自带有一些例子,就不需要自己写了)
bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ --num-executors 1 \ lib/spark-examples*.jar \ 10
更新 - 2015-12-19
以yarn-cluster
模式不能直接看到结果,但是用yarn-client
又会出错。从错误信息来看是(虚拟)内存超了,这个时候把driver内存设大一点即可。
bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn-client \ --num-executors 1 \ --driver-memory 1g \ lib/spark-examples*.jar \ 10
更新 - 2016-01-01
开启snappy压缩
重命名conf/spark-env.sh.template
为conf/spark-env.sh
,追加内容
HADOOP_HOME=~/tools/hadoopHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop/SPARK_LIBRARY_PATH=$HADOOP_HOME/lib/native
0 0
- 单机搭建基于Hadoop的Spark环境
- 单机搭建基于Hadoop的Spark环境
- 基于hadoop的Spark环境搭建
- Mac基于docker的hadoop单机环境搭建
- hadoop的单机环境搭建
- 基于hadoop2.7.3搭建单机hadoop环境
- 单机搭建spark环境
- hadoop单机环境搭建
- hadoop单机环境搭建
- hadoop单机环境搭建
- Mac OS X下Hadoop、Spark单机版环境搭建
- 云计算实践:基于Ubuntu的Spark、Hadoop、MongoDB的单机环境配置和开关方法
- Ubuntu /Spark单机环境搭建
- HBase环境搭建(一)Ubuntu下基于Hadoop文件系统的单机模式
- 单机伪分布下的hadoop+spark 环境配置
- Hadoop单机模式环境搭建
- hadoop单机开发环境搭建
- hadoop spark 环境搭建
- android-Creating a Search Interface
- qt程序中hid问题记录
- 界面跳转设置,及定位服务
- objective-c延展类目协议
- 遥感影像处理
- 单机搭建基于Hadoop的Spark环境
- 异常:could not initialize proxy - no Session
- 简单实例NSFileHandle的文件读写
- Android文件存储位置简述
- POJ 3274 哈希
- 参数曲面计算法向量
- Item 15: 只要有可能,就使用constexpr
- oracle的jdbc连接方式:oci和thin
- typddef struct