基于hive0.13中的spark1.6.0 insert overwrite 不可用临时解决办法

来源:互联网 发布:淘宝营销推广方案 编辑:程序博客网 时间:2024/06/03 18:17
将spark中hive-site.xml的hive.metastore.uris参数指向1.2.1版本的hive元数据服务,并重启spark server,该问题解决。

阅读全文
0 0
原创粉丝点击