[Spark]Spark与Anaconda配置(Python)
来源:互联网 发布:黑客使用的linux发行版 编辑:程序博客网 时间:2024/04/27 22:51
对于Python开发者来说,使用Anaconda是很爽的。linux安装好后,如何在pyspark中也可以使用Anaconda呢?这里笔者研读了下pyspark的脚本,这里给出解决方案。
安装Anaconda后,需要配置下bash_profile文件。
export PYSPARK_PYTHON=/home/peiwen/anaconda2/binexport IPYTHON="1"
(PS:直接在pyspark脚本前面加上export IPYTHON="1"也是很不错的选择)
并且将PYSPARK_PYTHON添加到PATH中去。
我的配置文件如下:
完事以后source 下。。
这个时候,再./bin/pyspark,就搞定啦
简直是Python用户开发Spark的利器呀。。
1 0
- [Spark]Spark与Anaconda配置(Python)
- Windows环境下配置python spark(windows7+python+spark)
- Spark Configuration(Spark配置)
- Spark Configuration(Spark配置)
- Spark和Anaconda结合
- Spark 运行与配置
- Spark安装与配置
- spark安装与配置
- Linux下Spark框架配置(Python)
- python编写spark的配置
- spark配置:spark集群
- Spark官方文档: Spark Configuration(Spark配置)
- Spark官方文档: Spark Configuration(Spark配置)
- spark的配置与安装
- hadoop与spark的配置
- spark集群安装与配置
- spark ha讲解与配置
- Spark安装与环境配置
- Android 开发打包时我们应该如何注意平台的兼容(x86,arm,arm-v7a)
- 定时器Android
- ftp连接不上的问题
- 学习笔记之数据类型和变量1
- 关于异常的理解。
- [Spark]Spark与Anaconda配置(Python)
- x86架构手机跑安卓好吗?
- 判别模型 和 生成模型
- 安卓应用反编译(二)-APK包反编译
- CSS经典操作
- eclipse启动时间插件
- 虫贵妃——开博纪念
- Lua和C++语言的交互详解
- Oracle varchar转clob