Pentaho Work with Big Data(八)—— kettle集群
来源:互联网 发布:手机淘宝更新不了 编辑:程序博客网 时间:2024/05/17 20:33
一、简介
集群技术可以用来水平扩展转换,使它们能以并行的方式运行在多台服务器上。转换的工作可以平均分到不同的服务器上。
一个集群模式包括一个主服务器和多个子服务器,主服务器作为集群的控制器。简单地说,作为控制器的Carte服务器就是主服务器,其他的Carte服务器就是子服务器。
一个集群模式也包含元数据,元数据描述了主服务器和子服务器之间怎样传递数据。在Carte服务器之间通过TCP/IP套接字传递数据。
二、环境
4台CentOS release 6.4虚拟机,IP地址为
192.168.56.104
192.168.56.102
192.168.56.103
192.168.56.104作为主Carte。
192.168.56.102、192.168.56.103作为子Carte。
192.168.56.104、192.168.56.102、192.168.56.103分别安装Pentaho的PDI,安装目录均为/home/grid/data-integration。
PDI版本:6.0
三、配置静态集群
1. 建立子服务器
(1)打开PDI,新建一个转换。
(2)在“主对象树”标签的“转换”下,右键点击“子服务器”,新建三个子服务器。如图1所示。
. master、slave1、slave2的配置分别如图2、图3、图4所示。
2. 建立集群模式
在“主对象树”标签的“转换”下,右键点击“Kettle集群Schemas”,新建一个名为“cluster”集群模式。如图6所示。
. cluster的配置如图7所示。
3. 编辑转换
(1)建立转换如图8所示。
. 这个转换的详细配置参考http://blog.csdn.net/wzy0623/article/details/51160948中的“把数据从Hive抽取到RDBMS”。
. 右键点击“Table output”,选择弹出菜单里的“集群...”,如图9所示。
. “Table input”没有集群标志,说明此步骤在主服务器上运行。
4. 执行与监控
(1)在192.168.56.104上执行下面的命令启动master。
从图14、图15可以看到,“Table output”步骤分别在两个子服务器slave1、slave2上运行,各自读取了18308行记录,并分别向mysql表写了18308行记录。此时查看mysql表,共写入了36616行记录。如图16所示。
四、配置动态集群
1. 建立子服务器,这步和配置静态集群相同。
2. 建立集群模式
在“主对象树”标签的“转换”下,右键点击“Kettle集群Schemas”,新建一个名为“cluster_dynamic”集群模式。如图17所示。
. cluster_dynamic的配置如图18所示。
3. 编辑转换
(1)建立转换如图19所示。
. 这个转换的详细配置参考http://blog.csdn.net/wzy0623/article/details/51160948中的“把数据从Hive抽取到RDBMS”。
. 右键点击“Table output”,选择弹出菜单里的“集群...”,如图9所示。
. 在弹出窗口中选择上一步建立的集群模式“cluster_dynamic”后,点击确定,如图20所示。
. “Table input”没有集群标志,说明此步骤在主服务器上运行。
4. 执行与监控
(1)在192.168.56.104上编辑/home/grid/data-integration/pwd/carte-config-8181.xml文件,内容如下:
(5)在192.168.56.102上执行下面的命令启动slave1。
(6)转换成功执行后,会在监控标签中看到执行信息,如图22到24所示。
从图23可以看到,“Table output”步骤分别在动态子服务器slave1运行,读取了18308行记录,并向mysql表写了18308行记录。
从图24可以看到,“Table output”步骤分别在动态子服务器slave2运行,读取了18308行记录,并向mysql表写了18308行记录。
此时查看mysql表,共写入了36616行记录。如图16所示。
参考:
Kettle解决方案:使用PDI构建开源ETL解决方案
集群技术可以用来水平扩展转换,使它们能以并行的方式运行在多台服务器上。转换的工作可以平均分到不同的服务器上。
一个集群模式包括一个主服务器和多个子服务器,主服务器作为集群的控制器。简单地说,作为控制器的Carte服务器就是主服务器,其他的Carte服务器就是子服务器。
一个集群模式也包含元数据,元数据描述了主服务器和子服务器之间怎样传递数据。在Carte服务器之间通过TCP/IP套接字传递数据。
二、环境
4台CentOS release 6.4虚拟机,IP地址为
192.168.56.104
192.168.56.102
192.168.56.103
192.168.56.104作为主Carte。
192.168.56.102、192.168.56.103作为子Carte。
192.168.56.104、192.168.56.102、192.168.56.103分别安装Pentaho的PDI,安装目录均为/home/grid/data-integration。
PDI版本:6.0
三、配置静态集群
1. 建立子服务器
(1)打开PDI,新建一个转换。
(2)在“主对象树”标签的“转换”下,右键点击“子服务器”,新建三个子服务器。如图1所示。
图1
说明:. master、slave1、slave2的配置分别如图2、图3、图4所示。
图2
图3
图4
. “用户名”和“密码”项在各自子服务器的/home/grid/data-integration/pwd/kettle.pwd文件中定义,如图5所示。图5
2. 建立集群模式
在“主对象树”标签的“转换”下,右键点击“Kettle集群Schemas”,新建一个名为“cluster”集群模式。如图6所示。
图6
说明:. cluster的配置如图7所示。
图7
. 集群模式中加入了上一步建立的一主两从Carte子服务器。3. 编辑转换
(1)建立转换如图8所示。
图8
说明:. 这个转换的详细配置参考http://blog.csdn.net/wzy0623/article/details/51160948中的“把数据从Hive抽取到RDBMS”。
. 右键点击“Table output”,选择弹出菜单里的“集群...”,如图9所示。
图9
. 在弹出窗口中选择上一步建立的集群模式“cluster”后,点击确定,如图10所示。图10
此时会看到“Table output”步骤的右上角出现“Cx2”标志,如图8的红框中所示,说明此步骤在集群的两个子服务器上运行。. “Table input”没有集群标志,说明此步骤在主服务器上运行。
4. 执行与监控
(1)在192.168.56.104上执行下面的命令启动master。
cd /home/grid/data-integration/./carte.sh 192.168.56.104 8181(2)在192.168.56.102上执行下面的命令启动slave1。
cd /home/grid/data-integration/./carte.sh 192.168.56.102 8181(3)在192.168.56.103上执行下面的命令启动slave2。
cd /home/grid/data-integration/./carte.sh 192.168.56.103 8181(4)保存并执行转换,如图11所示,选择“集群方式执行”,勾选“提交转换”、“准备执行”、“开始执行”三项,然后点击“启动”执行转换。
图11
(5)右键点击“cluster”,选择弹出菜单中的“Monitor all slave servers”,如图12所示。图12
(6)转换成功执行后,会在监控标签中看到执行信息,如图13到15所示。图13
图14
图15
从图13可以看到,“Table input”步骤在master运行,从hive表读取36616行记录,向“Table output”步骤输出36616行记录。从图14、图15可以看到,“Table output”步骤分别在两个子服务器slave1、slave2上运行,各自读取了18308行记录,并分别向mysql表写了18308行记录。此时查看mysql表,共写入了36616行记录。如图16所示。
图16
四、配置动态集群
1. 建立子服务器,这步和配置静态集群相同。
2. 建立集群模式
在“主对象树”标签的“转换”下,右键点击“Kettle集群Schemas”,新建一个名为“cluster_dynamic”集群模式。如图17所示。
图17
说明:. cluster_dynamic的配置如图18所示。
图18
. 与配置静态集群不同,这里只加入了master。3. 编辑转换
(1)建立转换如图19所示。
图19
说明:. 这个转换的详细配置参考http://blog.csdn.net/wzy0623/article/details/51160948中的“把数据从Hive抽取到RDBMS”。
. 右键点击“Table output”,选择弹出菜单里的“集群...”,如图9所示。
. 在弹出窗口中选择上一步建立的集群模式“cluster_dynamic”后,点击确定,如图20所示。
图20
此时会看到“Table output”步骤的右上角出现“CxN”标志,如图19的红框中所示,说明此步骤在集群的两个子服务器上运行。. “Table input”没有集群标志,说明此步骤在主服务器上运行。
4. 执行与监控
(1)在192.168.56.104上编辑/home/grid/data-integration/pwd/carte-config-8181.xml文件,内容如下:
<slave_config> <slaveserver> <name>master</name> <hostname>192.168.56.104</hostname> <port>8181</port> <username>cluster</username> <password>mypassword</password> <master>Y</master> </slaveserver></slave_config>(2)在192.168.56.102上编辑/home/grid/data-integration/pwd/carte-config-8181.xml文件,内容如下:
<slave_config> <masters> <slaveserver> <name>master</name> <hostname>192.168.56.104</hostname> <port>8181</port> <username>cluster</username> <password>mypassword</password> <master>Y</master> </slaveserver> </masters> <report_to_masters>Y</report_to_masters> <slaveserver> <name>slave1</name> <hostname>192.168.56.102</hostname> <port>8181</port> <username>cluster</username> <password>mypassword</password> <master>N</master> </slaveserver></slave_config>(3)在192.168.56.103上编辑/home/grid/data-integration/pwd/carte-config-8181.xml文件,内容如下:
<slave_config> <masters> <slaveserver> <name>master</name> <hostname>192.168.56.104</hostname> <port>8181</port> <username>cluster</username> <password>mypassword</password> <master>Y</master> </slaveserver> </masters> <report_to_masters>Y</report_to_masters> <slaveserver> <name>slave2</name> <hostname>192.168.56.103</hostname> <port>8181</port> <username>cluster</username> <password>mypassword</password> <master>N</master> </slaveserver></slave_config>(4)执行下面的命令启动master。
cd /home/grid/data-integration/./carte.sh pwd/carte-config-8181.xmlmaster启动之后,启动slave。
(5)在192.168.56.102上执行下面的命令启动slave1。
cd /home/grid/data-integration/./carte.sh pwd/carte-config-8181.xml(6)在192.168.56.103上执行下面的命令启动slave2。
cd /home/grid/data-integration/./carte.sh pwd/carte-config-8181.xml(7)保存并执行转换,如图21所示,选择“集群方式执行”,勾选“提交转换”、“准备执行”、“开始执行”三项,然后点击“启动”执行转换。
图21
(5)右键点击“cluster”,选择弹出菜单中的“Monitor all slave servers”,如图12所示。(6)转换成功执行后,会在监控标签中看到执行信息,如图22到24所示。
图22
图23
图24
从图23可以看到,“Table input”步骤在master运行,从hive表读取36616行记录,向“Table output”步骤输出36616行记录。从图23可以看到,“Table output”步骤分别在动态子服务器slave1运行,读取了18308行记录,并向mysql表写了18308行记录。
从图24可以看到,“Table output”步骤分别在动态子服务器slave2运行,读取了18308行记录,并向mysql表写了18308行记录。
此时查看mysql表,共写入了36616行记录。如图16所示。
参考:
Kettle解决方案:使用PDI构建开源ETL解决方案
0 0
- Pentaho Work with Big Data(八)—— kettle集群
- Pentaho Work with Big Data(一)—— Kettle连接Hadoop集群
- Pentaho Work with Big Data(二)—— Kettle提交Spark作业
- Pentaho Work with Big Data(三)—— 向Hadoop集群导入数据
- Pentaho Work with Big Data(七)—— 从Hadoop集群抽取数据
- Pentaho Work with Big Data(六)—— 使用Pentaho MapReduce生成聚合数据集
- Pentaho Work with Big Data(四)—— 转换Hive里的数据
- Pentaho Work with Big Data(五)—— 格式化原始web日志
- Pentaho Data Integration(Kettle) 6.0
- Pentaho 数据集成工具——Kettle(一)
- pentaho data-integration(kettle) 资源库备份
- Pentaho Kettle 6.1连接CDH5.4.0集群
- 数据挖掘(Data Mining)——Pentaho Weka
- 数据挖掘(Data Mining)——Pentaho Weka
- Work with data folder
- pentaho data-integration CE 5.0.1-stable ( kettle ) 使用 mysql 创建资源库 (repository )
- Big Data with MATLAB
- Pentaho ETL安装使用(KETTLE)
- 面向2016的比特币漫谈
- Coinbase回应白帽黑客账户“被封”事…
- 比特币基金会又邀来三位新成员,发…
- 圣诞节的感想
- 计算机,一部历史
- Pentaho Work with Big Data(八)—— kettle集群
- 微软为Factom的加密数字货币创造了…
- 2015年,11家比特币初创公司破产
- 尼日利亚央行禁止该国银行卡在国外…
- 区块链投资,看上去很美
- 洪都拉斯的区块链项目遭受质疑
- IBM推出比特币延展应用 支持…
- Eclipse中ndk配置
- 2015理财渠道盘点:域名、比特币大…