解决:kettle连接hadoop 2.20后,导致不能连接Hive的问题

来源:互联网 发布:在淘宝网怎么做兼职 编辑:程序博客网 时间:2024/05/16 09:29

kettle如何连接hadoop 2.20,参见  “Kettle(PentahoDataIntegration安装Hadoop-2.2.0插件


原本官方下载的kettle的4.4版本,默认配置是可以链接hive(不需要拷贝问题),但配置hadoop2.20的文件进来后,无法链接



依据错误提示,明显是kettle的链接hive的驱动有问题,思考为了链接hadoop 2.20版本所做的修改,哪些影响了这个链接,注意到有一个步骤修改了目录指定的文件,就是

plugin.properties文件。修改一行数据:      active.hadoop.configuration=hadoop-2.2.0

把原来的hadoop-20目录指定到hadoop-2.2.0,而hadoop-2.2.0目录是根据cdh4目录修改的,细查看里面的hive 的jdbc,是cdh4版本:hive-service-0.8.1-cdh4.0.0,hive-exec-0.8.1-cdh4.0.0  

果断把hive的安装目录的相关jar文件,拷贝到plugins\pentaho-big-data-plugin\hadoop-configurations\hadoop-2.2.0\lib目录下,并删除相关cdh4* 的文件。


OK,成功链接!


0 0
原创粉丝点击