Azkaban初步使用(二)
来源:互联网 发布:淘宝详情页制作技巧 编辑:程序博客网 时间:2024/06/05 12:43
背景
实际当中经常有这些场景:每天有一个大任务,这个大任务可以分成A,B,C,D四个小任务,A,B任务之间没有依赖关系,C任务依赖A,B任务的结果,D任务依赖C任务的结果。一般的做法是,开两个终端同时执行A,B,两个都执行完了再执行C,最后再执行D。这样的话,整个的执行过程都需要人工参加,并且得盯着各任务的进度。但是我们的很多任务都是在深更半夜执行的,通过写脚本设置crontab执行。其实,整个过程类似于一个有向无环图(DAG)。每个子任务相当于大任务中的一个流,任务的起点可以从没有度的节点开始执行,任何没有通路的节点之间可以同时执行,比如上述的A,B。总结起来的话,我们需要的就是一个工作流的调度器,而azkaban就是能解决上述问题的一个调度器。
作者:haort链接:http://www.jianshu.com/p/484564beda1d來源:简书著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。登录
https://localhost:8443注意是https,采用的是jetty ssl链接。输入账号密码azkaban/azkanban(如果你之前没有更改的话)
首页有四个菜单
- projects:最重要的部分,创建一个工程,所有flows将在工程中运行。
- scheduling:显示定时任务
- executing:显示当前运行的任务
- history:显示历史运行任务
主要介绍projects部分首先创建一个工程,填写名称和描述,比如o2olog。
Flows:工作流程,有多个job组成Permissions:权限管理Project Logs:工程日志
创建工程:
创建之前我们先了解下之间的关系,一个工程包含一个或多个flows,一个flow包含多个job。job是你想在azkaban中运行的一个进程,可以是简单的linux命令,可是java程序,也可以是复杂的shell脚本,当然,如果你安装相关插件,也可以运行插件。一个job可以依赖于另一个job,这种多个job和它们的依赖组成的图表叫做flow。
job创建
创建job很简单,只要创建一个以.job结尾的文本文件就行了,例如我们创建一个工作,用来将日志数据导入hive中(关于大数据方面的东西,不在重复,可以理解为,将日志所需数据导入的mysql中),我们创建o2o_2_hive.job
type=commandcommand=echo "data 2 hive"
一个简单的job就创建好了,解释下,type的command,告诉azkaban用unix原生命令去运行,比如原生命令或者shell脚本,当然也有其他类型,后面说。
一个工程不可能只有一个job,我们现在创建多个依赖job,这也是采用azkaban的首要目的。
flows创建
我们说过多个jobs和它们的依赖组成flow。怎么创建依赖,只要指定dependencies参数就行了。比如导入hive前,需要进行数据清洗,数据清洗前需要上传,上传之前需要从ftp获取日志。定义5个job:
- o2o_2_hive.job:将清洗完的数据入hive库
- o2o_clean_data.job:调用mr清洗hdfs数据
- o2o_up_2_hdfs.job:将文件上传至hdfs
- o2o_get_file_ftp1.job:从ftp1获取日志
- o2o_get_file_fip2.job:从ftp2获取日志
依赖关系:3依赖4和5,2依赖3,1依赖2,4和5没有依赖关系。
o2o_2_hive.job
type=command# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh /job/o2o_2_hive.shdependencies=o2o_clean_data
o2o_clean_data.job
type=command# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh /job/o2o_clean_data.shdependencies=o2o_up_2_hdfs
o2o_up_2_hdfs.job
type=command#需要配置好hadoop命令,建议编写到shell中,可以后期维护command=hadoop fs -put /data/*#多个依赖用逗号隔开dependencies=o2o_get_file_ftp1,o2o_get_file_ftp2
o2o_get_file_ftp1.job
type=commandcommand=wget "ftp://file1" -O /data/file1
o2o_get_file_ftp2.job
type=commandcommand=wget "ftp:file2" -O /data/file2
可以运行unix命令,也可以运行python脚本(强烈推荐)。将上述job打成zip包。ps:为了测试流程,我将上述command都改为echo +相应命令
上传:
点击o2o_2_hive进入流程,azkaban流程名称以最后一个没有依赖的job定义的。
右上方是配置执行当前流程或者执行定时流程。
Flow view:流程视图。可以禁用,启用某些jobNotification:定义任务成功或者失败是否发送邮件Failure Options:定义一个job失败,剩下的job怎么执行Concurrent:并行任务执行设置Flow Parametters:参数设置。
1.执行一次设置好上述参数,点击execute。
绿色代表成功,蓝色是运行,红色是失败。可以查看job运行时间,依赖和日志,点击details可以查看各个job运行情况。
2.定时执行
这时候注意到cst了吧,之前需要将配置中时区改为Asia/shanghai。可以选择"天/时/分/月/周"等执行频率。
可以查看下次执行时间。
其他job配置选项
可以定义job依赖另一个flow,配置
type=flowflow.name=fisrt_flow
可以设置每个job中子命令
type=commandcommand=echo "hello"command.1=echo "world"
可以配置job失败重启次数,及间隔时间,比如,上述ftp获取日志,我可以配置重试12次,每隔5分钟一次。
type=commandcommand=wget "ftp://file1" -O /data/file1retries=12#单位毫秒retry.backoff=300000
azkaban还有很多强大的功能,如它开放了相关api,我们将它可以嵌入到自己的app等等,有兴趣的朋友可以研究。
至此,azkaban学习到此结束,
- Azkaban初步使用(二)
- 任务调度器之azkaban(二)
- 【Jmeter】初步使用(二)
- 二、azkaban 指南
- u4初步使用整理(二)
- hadoop学习之azkaban(5.1):azkaban的使用及示例
- Azkaban使用示例
- azkaban安装使用
- azkaban安装使用
- azkaban安装与使用
- Azkaban简介和使用
- Azkaban简介与使用
- azkaban的使用
- Azkaban使用简单笔记
- Azkaban的使用
- Azkaban-开源任务调度程序(使用篇)
- Azkaban-开源任务调度程序(使用篇)
- Azkaban-开源任务调度程序(使用篇)
- 《Effective Java》------对所以对象都通用的方法
- vmware14版本虚拟机黑屏问题解决方案
- Shiro @RequiresRoles注解不生效解决方案及相应设置
- 序列子区间异或和
- 【OpenCV入门教程之五】 分离颜色通道&多通道图像混合
- Azkaban初步使用(二)
- JVM性能调优(一)
- 蓝桥杯嵌入式类比赛经验分享
- 单列集合
- 你知道android的MessageQueue.IdleHandler吗?
- 堆和栈
- C++高级编程 第十五章: 处理错误
- JAVA-面向对象
- 软件质量问题谁负责