使用Sqoop将Hive结果迁移至Mysql(四)
来源:互联网 发布:网络空间安全专业 编辑:程序博客网 时间:2024/05/16 07:35
使用Sqoop将结果进行数据迁移,存放在mysql中。
1. 用Sqoop创建link和job
package com.yc.elm.utils;import org.apache.sqoop.client.SqoopClient;import org.apache.sqoop.model.MDriverConfig;import org.apache.sqoop.model.MFromConfig;import org.apache.sqoop.model.MJob;import org.apache.sqoop.model.MLink;import org.apache.sqoop.model.MLinkConfig;import org.apache.sqoop.model.MToConfig;import org.apache.sqoop.validation.Status;public class DataToMysql {public static SqoopClient client = new SqoopClient("http://master:12000/sqoop/");public static void main(String[] args) {System.setProperty("user.name", "hadoop");createJDBC();createHDFS();doHdfs2Mysql();}public static MJob doHdfs2Mysql() {MJob job = client.createJob("elmHdfs", "elmJdbc"); // 创建一个作业对象job.setName("elmJob");job.setCreationUser("hadoop");MFromConfig from = job.getFromJobConfig(); // 获取到这个来源连接配置对象from.getStringInput("fromJobConfig.inputDirectory").setValue("/elm/rating");MToConfig to = job.getToJobConfig(); // 获取到这个目的地的连接对象to.getStringInput("toJobConfig.schemaName").setValue("hive");to.getStringInput("toJobConfig.tableName").setValue("elm_rating"); // mysql中的表名MDriverConfig driverConfig = job.getDriverConfig(); // 获取到数据迁移处理驱动对象driverConfig.getIntegerInput("throttlingConfig.numExtractors").setValue(3);driverConfig.getIntegerInput("throttlingConfig.numLoaders").setValue(1);Status status = client.saveJob(job);if (status.canProceed()) {return job;} else {throw new RuntimeException("创建 hdfs to hdfs 工作失败!!!");}}public static MLink createJDBC() {MLink mLink = client.createLink("generic-jdbc-connector");// 创建一个sqoop对象mLink.setName("elmJdbc"); // 给连接指定一个名称mLink.setCreationUser("hadoop");MLinkConfig linkConfig = mLink.getConnectorLinkConfig();linkConfig.getStringInput("linkConfig.jdbcDriver").setValue("com.mysql.jdbc.Driver");linkConfig.getStringInput("linkConfig.connectionString").setValue("jdbc:mysql://master:3306/hive?useSSL=false&useUnicode=true&characterEncoding=utf-8");linkConfig.getStringInput("linkConfig.username").setValue("hive");linkConfig.getStringInput("linkConfig.password").setValue("a");linkConfig.getStringInput("dialect.identifierEnclose").setValue(" ");Status status = client.saveLink(mLink);if (status.canProceed()) {return mLink;} else {throw new RuntimeException("创建jdbc连接失败!!!");}}public static MLink createHDFS() {MLink mLink = client.createLink("hdfs-connector");mLink.setName("elmHdfs"); // 给连接制定一个名称MLinkConfig linkConfig = mLink.getConnectorLinkConfig();linkConfig.getStringInput("linkConfig.uri").setValue("hdfs://master:9000");Status status = client.saveLink(mLink);if (status.canProceed()) {return mLink;} else {throw new RuntimeException("创建hdfs连接失败!!!");}}}
2. 在mysql中创建表
create table elm_rating ( id int, name varchar(50), rating double)
3. Sqoop中启动job
在启动作业之前最好开启日志(主机从机都要开启)
mr-jobhistory-daemon.sh start historyserver
在sqoop中跟踪进程
set option -n verbose -v true
start job -n jobname -s
4.mysql中查看结果
5. 问题总结
a. ssl报错
解决办法:在创建jdbc连接时带上参数 useSSL=false
b. Hive中中文正常,迁移到mysql出乱码
解决办法:
在创建jdbc连接时带上参数 useUnicode=true&characterEncoding=utf-8 。
还没解决的话,检查mysql编码集,删除表,重新创建表时带上编码集。
阅读全文
0 0
- 使用Sqoop将Hive结果迁移至Mysql(四)
- 使用sqoop将oracle数据迁移到hive中
- 使用sqoop将mysql中数据导入到hive中
- 使用Sqoop将Hive表数据导入到mysql
- 使用sqoop将hive数据导入mysql实例
- 将Hive统计分析结果导入到MySQL数据库表中(一)——Sqoop导入方式
- 使用sqoop实现hive与mysql数据库间数据迁移的时,发现如下错误提示
- [Sqoop]将Mysql数据表导入到Hive
- [Sqoop]将Hive数据表导出到Mysql
- sqoop将Mysql数据传入Hive中
- sqoop将Mysql数据导入Hive中
- 利用sqoop将oracle 11g中的表迁移至hive表
- 利用sqoop将oracle 11g中的表迁移至hive表
- Hive数据仓库-Sqoop将数据从Mysql导入Hive中
- 将Hive统计分析结果导入到MySQL数据库表中(二)——使用Hive和MySQL JDBC驱动
- 使用sqoop将hive中的表数据导入到mysql数据库表中,错误解决
- 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出
- 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出
- unity 在pc平台 重启应用程序
- python的urlparse
- winform中多线程与定时器冲突
- adb 用例
- java集成paypal支付,含Android,服务端代码
- 使用Sqoop将Hive结果迁移至Mysql(四)
- pyLDAvis基于gensim的LDA模型可视化
- 随手笔记
- 笔试面试高频题(计算机网络)
- Python csv写入占多个单元格
- Web应用程序信息收集工具wig
- ArcObjects Help for Java api中文对照(一):com.esri.arcgis.addinframework-插件框架
- Caused by: org.springframework.beans.factory.BeanCreationException: Could not autowire field: privat
- 微信小程序BLE蓝——数据转换