使用sqoop将数据从hdfs中导入mysql时,卡在INFO mapreduce.Job: map 100% reduce 0%的解决办法
来源:互联网 发布:mac绘画软件sai知乎 编辑:程序博客网 时间:2024/05/09 00:47
最近在将hdfs中已经处理好的数据导入到mysql的时候遇到这么一个现象,当任务执行到
INFO mapreduce.Job: map 100% reduce 0%
mapreduce任务卡在map100% ,任何reduce不继续执行。
总结了以下解决办法:
一,如果没有报错的话,可能是你mysql的数据库建表指定的主键不全,导致导入一部分数据后,主键出现相同字段,那么就造成阻塞了
二,如果报错的话,可能就是配置问题,集群无法承载如此大量数据的处理,资源紧张导致的阻塞
对于第一种,仔细查看表的结构,看看是否有的字段长度不够,或者建表时指定的主键不够全
第二个错误,可以配置一下yarn-site.xml文件
1. <property> 2. <name>yarn.nodemanager.resource.memory-mb</name> 3. <value>20480</value> 4. </property> 5. <property> 6. <name>yarn.scheduler.minimum-allocation-mb</name> 7. <value>2048</value> 8. </property> 9. <property> 10. <name>yarn.nodemanager.vmem-pmem-ratio</name> 11. <value>2.1</value> 12. </property>重启yarn尝试重新运行试试。
0 0
- 使用sqoop将数据从hdfs中导入mysql时,卡在INFO mapreduce.Job: map 100% reduce 0%的解决办法
- 使用Sqoop将HDFS中数据导入MYSQL中
- 用sqoop将mysql数据导入到hdfs中
- 使用sqoop将mysql数据导入到hdfs
- sqoop从mysql数据库导入数据到hdfs中
- 1.4 使用Sqoop从MySQL数据库导入数据到HDFS
- 使用Sqoop从MySQL中导入数据
- Sqoop 数据从HDFS导入到mysql
- SQOOP从MySQL导入数据到HDFS
- 使用sqoop将mysql的数据导入到HBase中
- sqoop从mysql导入hdfs数据过程遇到的问题
- 使用Sqoop将数据在HDFS与MySQL互导
- sqoop导入数据地图-reduce job分析
- Hive数据仓库-Sqoop将数据从Mysql导入Hive中
- Sqoop将数据从Mysql导入Hive中
- sqoop把hive数据导入mysql时,map卡在100%
- 使用sqoop将mysql中数据导入到hive中
- 使用sqoop 1.4.4从mysql向hdfs导入表出现链接数据库失败错误的解决办法
- 不重新编译PHP为PHP安装zlib扩展
- jvm内存布局(一)
- 剑指offer(C++)——机器人的运动范围
- Android开发步骤
- 高效Windows工具推荐
- 使用sqoop将数据从hdfs中导入mysql时,卡在INFO mapreduce.Job: map 100% reduce 0%的解决办法
- 设计模式知识
- vs下opencv的人脸检测以及qt下dll的封装调用(一、opencv下的人脸检测以及图片的保存)
- 关于在ubuntu下安装使用pycharm
- 读《JavaScript语言精粹》杂谈
- POJ 2955 Brackets (DP Or 记忆化搜索 总结)
- 阈值化
- go 使用mgo驱动示例
- js如何直接打印