关于使用“Hadoop free”版本的Spark
来源:互联网 发布:淘宝打电话需要理他吗 编辑:程序博客网 时间:2024/06/06 04:03
Using Spark's "Hadoop Free" Build
Spark uses Hadoop client libraries for HDFS and YARN. Starting in version Spark 1.4, the project packages “Hadoop free” builds that lets you more easily connect a single Spark binary to any Hadoop version. To use these builds, you need to modify SPARK_DIST_CLASSPATH
to include Hadoop’s package jars. The most convenient place to do this is by adding an entry in conf/spark-env.sh
.
This page describes how to connect Spark to Hadoop for different types of distributions.
Apache Hadoop
For Apache distributions, you can use Hadoop’s ‘classpath’ command. For instance:
### in conf/spark-env.sh #### If 'hadoop' binary is on your PATHexport SPARK_DIST_CLASSPATH=$(hadoop classpath)# With explicit path to 'hadoop' binaryexport SPARK_DIST_CLASSPATH=$(/path/to/hadoop/bin/hadoop classpath)# Passing a Hadoop configuration directoryexport SPARK_DIST_CLASSPATH=$(hadoop --config /path/to/configs classpath)
官方文档:http://spark.apache.org/docs/latest/hadoop-provided.html
0 0
- 关于使用“Hadoop free”版本的Spark
- Spark Hadoop Free 安装遇到的问题
- Spark: Spark和Hadoop的区别--关于资源使用
- 关于eclipseUML free版本的安装问题
- 编译特定hadoop版本的spark
- 关于Hadoop与Spark的讨论
- [CDH--安装]--关于Spark版本的支持
- 关于free与malloc的使用
- 关于所使用的spark版本中的spark sql不支持exists和in等子查询语句的解决方案记录
- Hadoop、spark的一些基本使用笔记
- 避免在Spark 2.x版本中使用sparkSQL,关于CTAS bug的发现过程
- Genymotion Free 版本使用网络
- 关于Apache Hadoop版本
- 使用0.22.X系列版本的Hadoop
- 关于Spark 和 scala 版本冲突的问题
- ubutun 下配置Spark (hadoop)版本
- 运行spark及hadoop版本不一致解决方法
- C语言中关于free函数、bzero函数的使用
- Ladder (单调栈)
- 调用函数时为什么要在函数名前加“(void)”
- 十大排序算法
- 读《程序员自我修养》 总结
- Canvas容器绘制直线
- 关于使用“Hadoop free”版本的Spark
- JavaScript笔记3--封装JS对象
- 好久没更新博客了
- 第九章 字典
- sun.security.validator.ValidatorException: PKIX path building failed: sun.security.provider.certpath
- WPF 嵌入百度地图完整实现详解
- GCM(谷歌云推送)客户端服务器端开发全指南(客户端)
- Xcode 报错及警告消除
- 导出当前域内所有用户hash的技术整理