Hadoop实践(四)---MR Job卡住的问题

来源:互联网 发布:网络拓扑发现工具 编辑:程序博客网 时间:2024/06/11 00:02

在Hadoop集群运行MapReduce任务时出现卡死的情况

可能的原因如下:

  1. Master和Slaves机器上的hosts文件配置的有问题

  2. Hadoop集群配置文件yarn-site.xml中关于资源(内存和虚拟内存的配置项)的配置不正确

  3. 编写的MapReduce程序本身存在逻辑问题,导致运行卡死或者陷入死循环

  4. 在程序运行是出现内存溢出的情况,修改hadoop-env.sh文件中的HADOOP_HEAP_SIZEmapreduce-site.xmlmapred.child.java.opts或者减小mapred.tasktrace.map.tasks.maximumedmapred.tasktrace.reduce.tasks.maximumed

  5. 程序运行时出现了数据倾斜的情况,打散数据,均匀分布到集群的各个节点进行处理

0 0
原创粉丝点击