Hadoop运维:作业的map过多被杀死

来源:互联网 发布:域名纠纷 管辖 编辑:程序博客网 时间:2024/05/21 14:00

这几天因为数据源更改的原因,每天一个任务运行的作业数是8w多个,每当运行到4w多的时候,整个任务就被kill掉了,追踪日志得到原因。resourceManager的配置yarn.app.mapreduce.am.resource.mb设置为1GB,造成内存溢出,而导致作业被杀死。将参数修改为3GB。

附作业错误log:

Job OverviewJob Name:insert overwrite tabl...og_raw_locate_newtmp(Stage-1)User Name:rootQueue:root.baseState:KILLEDUberized:falseSubmitted:Tue Nov 11 10:20:33 CST 2014Started:Tue Nov 11 11:45:19 CST 2014Finished:Tue Nov 11 12:53:05 CST 2014Elapsed:1hrs, 7mins, 46secDiagnostics: Average Map Time34sec

0 0
原创粉丝点击