用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
来源:互联网 发布:淘宝怎么改收获地址 编辑:程序博客网 时间:2024/05/29 09:59
一、将pyspark放入:
该目录位置(我的是mac):
/Library/Python/2.7/site-packages
二、env配置:
步骤1:
步骤2:
步骤3:
SPARK_CLASSPATH
/Users/Chaves/workspace/spark/hbase-0.98.3/lib/:/Users/Chaves/workspace/spark/spark-2.0.1-bin-hadoop2.6/lib/:
SPARK_HOME
/Users/Chaves/workspace/spark/spark-2.0.1-bin-hadoop2.6
更多其他pycharm 的详细设计见:http://blog.csdn.net/u013660881/article/details/46777415
三、运行命令:
1,spark 终端运行命令
如本机spark包位置
/Users/个人目录/workspace/spark/spark-2.0.1-bin-hadoop2.6/conf
spark-env.sh
2,修改SPARK_CLASSPATH
2.1,在以下spark的bin目录下运行:
/Users/个人目录/workspace/spark/spark-2.0.1-bin-hadoop2.6/bin
2.2,启动命令(./spark-submit –jars包)
./spark-submit —jars jar包地址 —py-files 工具包 算法文件地址 参数1 参数2 参数3 …nt
2.0与1.0的区别:
spark = SparkSession.builder.master("local").appName("pyspark2_0_1_test").getOrCreate()sc = self.spark.sparkContexthc = HiveContext(sc)....
0 0
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- pycharm上写spark程序
- spark+pycharm+python(主要介绍pycharm的设置)
- ps -aux | sort -k4nr /opt/models/jdk//bin/java -cp /opt/models/spark-1.6.1-bin-hadoop2.6/conf/
- 用python写spark代码
- Spark 1.4集群搭建(Hadoop2.6)
- 使用PyCharm配置Spark的Python开发环境(基础)
- Hadoop2.2.0 部署spark 1.0
- hadoop2.6上部署spark
- centos7(vm)下spark-2.0.2-bin-hadoop2.7.tgz单机模式的安装验证(x86)
- spark 安装与python pycharm搭建
- 如何用Python写spark
- 用ipython 写spark
- windows 10 安装 spark 环境(spark 2.2.1 + hadoop2.7)
- spark-submit 提交 spark-examples-1.6.1-hadoop2.6.0.jar
- 用pycharm玩spark | windows平台
- Pycharm+Spark开发配置
- Pycharm开发spark程序
- 链表去重
- centos 下 nginx 服务器的安装
- PAT 1039 Course List for Student
- php下intval()和(int)转换使用与区别
- 初识Mvp模式
- 用pycharm + python写spark(spark-2.0.1-bin-hadoop2.6)
- 玩转Android drawable图片适配
- DNS记录分析
- Android studio 升级问题
- 有关公司分布式架构的思考
- 回顾2016展望2017
- Java中测试异常的多种方式
- 安卓双击退出的实现
- Android定制--------系统内置文件,不需要用到linux服务