Spark和Hive集成使用时mysql驱动包无法加载解决办法
来源:互联网 发布:python经纬度画轨迹图 编辑:程序博客网 时间:2024/06/06 19:09
我们在处理离线数据分析时,一般做法是用正则等处理数据,把最终结果保存到Hive仓库。Spark应用程序调用Hive,用Sprk sql进行查询分析。
第一次集成时,报无法找到合适的驱动错误:
Caused by: java.sql.SQLException: No suitable driver found for jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true at java.sql.DriverManager.getConnection(DriverManager.java:596) at java.sql.DriverManager.getConnection(DriverManager.java:187) at org.datanucleus.store.rdbms.datasource.dbcp.DriverManagerConnectionFactory.createConnection(DriverManagerConnectionFactory.java:78) at org.datanucleus.store.rdbms.datasource.dbcp.PoolableConnectionFactory.makeObject(PoolableConnectionFactory.java:582) at org.datanucleus.store.rdbms.datasource.dbcp.pool.impl.GenericObjectPool.borrowObject(GenericObjectPool.java:1158) at org.datanucleus.store.rdbms.datasource.dbcp.PoolingDataSource.getConnection(PoolingDataSource.java:108) at org.datanucleus.store.rdbms.ConnectionFactoryImpl$ManagedConnectionImpl.getConnection(ConnectionFactoryImpl.java:501) at org.datanucleus.store.rdbms.RDBMSStoreManager.<init>(RDBMSStoreManager.java:298) at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:526) at org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension(NonManagedPluginRegistry.java:631) at org.datanucleus.plugin.PluginManager.createExecutableExtension(PluginManager.java:301) at org.datanucleus.NucleusContext.createStoreManagerForProperties(NucleusContext.java:1187) at org.datanucleus.NucleusContext.initialise(NucleusContext.java:356) at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration(JDOPersistenceManagerFactory.java:775)
经检查,mysql驱动包已经放到spark目录下,并且使用 –jars参数加载:
bin/spark-shell --jars externaljars/mysql-connector-java-5.1.27-bin.jar --master local[2]
分析原因,可能是–jars没有加载上驱动,改成 –driver-class-path加载:
bin/spark-shell --jars externaljars/mysql-connector-java-5.1.27-bin.jar --master local[2]
问题解决,启动成功。
阅读全文
0 0
- Spark和Hive集成使用时mysql驱动包无法加载解决办法
- 无法加载mysql驱动org.gjt.mm.mysql.driver解决办法
- myeclipse加载mysql驱动包失败的解决办法
- spark sql读取hive数据时报找不到mysql驱动的解决办法
- jdbc动态加载jar包连接mysql和hive
- spark与hive集成
- spark集成hive遭遇mysql check失败的问题
- spark sql之访问 hive 和 MySQL
- Spark SQL读取hive数据时报找不到mysql驱动
- HIVE 无法登陆 Mac 上的mysql 问题 解决办法(纯粹当作笔记使用)
- sinatra mysql 无法加载驱动错误
- 解决QT无法加载mysql驱动问题
- maven+Hibernate mysql驱动无法加载错误
- Spark SQL和Hive使用场景?
- Hive+mySql遇到的问题和解决办法
- 将Hive统计分析结果导入到MySQL数据库表中(二)——使用Hive和MySQL JDBC驱动
- hive集成MySql数据库
- spark基础之Spark SQL和Hive的集成以及ThriftServer配置
- HDU 6082 度度熊与邪恶大魔王【dp】
- 关于社会大环境
- Java 中使用JSON那些事
- EFI与MBR启动的区别
- 【在线支付】在线支付的方式
- Spark和Hive集成使用时mysql驱动包无法加载解决办法
- X is intended for a x86_64 architecture问题解决
- 设计模式之策略模式
- Ubuntu17.04安装Docker17.06后配置国内(Docker中国官方)镜像加速
- (01背包扩展) 算法提高 金明的预算方案
- leetcode 309. Best Time to Buy and Sell Stock with Cooldown
- LSTM
- (转)单例模式详解
- Python 解析CSV