spark单机环境(支持hive)部署
来源:互联网 发布:武汉软件职业技术学院 编辑:程序博客网 时间:2024/04/28 22:05
一.安装hadoop 2.6.4
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoopTmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
下面两个不要把目录配置到系统/tmp目录下 ,因为每次重启会清空
<property>
<name>dfs.name.dir</name>
<!--<value>/tmp/hadoopTmp/name</value>-->
<value>/home/yujunjun/software/hadoop/hadoop-namenode/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/yujunjun/software/hadoop/hadoop-datanode/data</value>
</property>
hadoop-env.sh
export hadoop的path
二.安装hive 1.2.1
1.安装mysql download mysql 的connectjar包
2.配置元数据位置,把mysql的连接jar包 mysql-connector-java-5.1.39-bin.jar拷贝到lib目录下
三.编译安装spark2.0
http://www.voidcn.com/blog/zbc1090549839/article/p-6187029.html
拷贝
编译命令:
注意编译参数:-Phive -Phive-thriftserver
安装spark:
- 将hive/conf/hive-site.xml、hadoop/conf/core-site.xml、hdfs-site.xml拷入spark/conf目录下。
- 如果hive元数据库配置的为mysql数据库,需要将mysql-driver(mysql-connector-java-5.1.38-bin.jar)拷贝至spark安装目录的lib目录下。
spark-env.sh
export SPARK_MASTER_IP=localhost
export SPARK_WORKER_MEMORY=4G
export MASTER=local[2]
- spark单机环境(支持hive)部署
- Spark集群(单机)环境部署
- 单机部署spark
- spark单机部署问题
- mac单机部署spark
- spark+kafka+Elasticsearch单机环境的部署和性能测试
- 编译能支持Hive的Spark,并部署测试。
- ubuntu下安装Spark(单机环境)
- 单机搭建spark环境
- storm单机环境部署
- storm单机环境部署
- hive on spark部署
- Spark安装部署说明(单机)
- Spark单机模式独立部署
- Ubuntu /Spark单机环境搭建
- Windows10 Spark单机开发环境的搭建(Python)
- Linux单机部署LNMP环境
- Storm单机环境部署文档
- CSS3 弹性伸缩布局(中)(20160906-0037)
- 斜率优化
- 知道这几 个正则表达式,能让你少写 1,000 行代码
- jQuery避免频繁的AJAX请求
- 接口限流算法(关于临界点处理)
- spark单机环境(支持hive)部署
- 应用程序配置不正确解决方法
- POJ 1470 Closet Conmon Ancestors(LCA在线算法)
- java main调试springweb项目
- 网页拨打电话代码
- Android Blog
- ClickOnce部署WinForm程序技巧总结
- 认真学spring官网,很容易找到spring4的jar包下载位置
- 【Android】Retrofit的使用(2)-使用Retrofit提交JSON数据