分布式消息队列kafka原理简介
来源:互联网 发布:普联软件 怎么样 编辑:程序博客网 时间:2024/05/16 15:59
- kafka原理简介
- Producer
- Broker
- Consumer
- Zookeeper
- Kafka优点
- 单机版安装教程
- 1关闭SELINUX
- 2配置防火墙
- 3安装JDK
- 4下载安装Kafka
- 5配置Kafka
- 6Zookeeper配置
- 7脚本编写
- 8配置脚本开机自行启动
- 9启动kafka
- 10创建topic
- kafka原理简介
kafka原理简介
Kafka是由LinkedIn开发的一个分布式的消息系统,使用Scala编写,它以可水平扩展和高吞吐率而被广泛使用。目前越来越多的开源分布式处理系统如Cloudera、Apache Storm、Spark都支持与Kafka集成。
消息的发布描述为producer,消息的订阅描述为consumer,将中间的存储阵列称作broker(代理)。kafka是linkedin用于日志处理的分布式消息队列,同时支持离线和在线日志处理。kafka对消息保存时根据Topic进行归类,发送消息者就是Producer,消息接受者就是Consumer,每个kafka实例称为broker。然后三者都通过Zookeeper进行协调。
也即:
1、启动zookeeper的server2、启动kafka的server3、Producer生产数据,然后通过zookeeper找到broker,再讲数据push到broker进行保存4、Consumer通过zookeeper找到broker,然后再主动pull数据
kafka存储是基于硬盘存储的,然而却有着快速的读写效率,一个 67200rpm STAT RAID5 的阵列,线性读写速度是 300MB/sec,如果是随机读写,速度则是 50K/sec。
虽然都知道内存读取速度会明显快于硬盘读写速度,但是kafka却通过线性读写的方式实现快速地读写。
Producer
学习kafka一定要理解好Topic,每个Topic被分成多个partition(区)。每条消息在partition中的位置称为offset(偏移量),类型为long型数字。消息即使被消费了,也不会被立即删除,而是根据broker里的设置,保存一定时间后再清除,比如log文件设置存储两天,则两天后,不管消息是否被消费,都清除。
Broker
broker也即中间的存储队列。我们将消息的収布(publish)暂时称作 producer,将消息的订阅(subscribe)表述为consumer,将中间的存储阵列称作 broker(代理)。
Consumer
每个consumer属于一个consumer group。在kafka中,一个partition的消息只会被group中的一个consumer消费;可以认为一个group就是一个“订阅者”。一个Topic中的每个partition只会被一个“订阅者”中的一个consumer消费。
Zookeeper
kafka集群几乎不需要维护任何Consumer和Producer的信息。这些信息由Zookeeper保存。发送到Topic的消息,只会被订阅此Topic的每个group中的一个consumer消费。
Kafka优点
Kafka好处:转自InfoQ:Kafka剖析
解耦
在项目启动之初来预测将来项目会碰到什么需求,是极其困难的。消息系统在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。这允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。冗余
有些情况下,处理数据的过程会失败。除非数据被持久化,否则将造成丢失。消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的”插入-获取-删除”范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。扩展性
因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。不需要改变代码、不需要调节参数。扩展就像调大电力按钮一样简单。灵活性 & 峰值处理能力
在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见;如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。可恢复性
系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。顺序保证
在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。Kafka保证一个Partition内的消息的有序性。缓冲
在任何重要的系统中,都会有需要不同的处理时间的元素。例如,加载一张图片比应用过滤器花费更少的时间。消息队列通过一个缓冲层来帮助任务最高效率的执行。写入队列的处理会尽可能的快速。该缓冲有助于控制和优化数据流经过系统的速度。异步通信
很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。
单机版安装教程
1、关闭SELINUX
vi /etc/selinux/config
对配置文件进行修改,然后按ESC键,:wq保存退出
#SELINUX=enforcing #SELINUXTYPE=targetedSELINUX=disabled #增加:wq! #保存退出
2、配置防火墙
vi /etc/sysconfig/iptables
可以看到配置文件,然后按I键,insert一行
-A INPUT -m state --state NEW -m tcp -p tcp --dport 9092 -j ACCEPT
然后按ESC键,:wq保存退出
# Firewall configuration written by system-config-firewall# Manual customization of this file is not recommended.*filter:INPUT ACCEPT [0:0]:FORWARD ACCEPT [0:0]:OUTPUT ACCEPT [0:0]-A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT-A INPUT -p icmp -j ACCEPT-A INPUT -i lo -j ACCEPT-A INPUT -m state --state NEW -m tcp -p tcp --dport 22 -j ACCEPT-A INPUT -m state --state NEW -m tcp -p tcp --dport 9092 -j ACCEPT-A INPUT -j REJECT --reject-with icmp-host-prohibited-A FORWARD -j REJECT --reject-with icmp-host-prohibitedCOMMIT:wq! #保存退出
3、安装JDK
如果有安装yum的话,一般可以使用yum安装,下面给出网上一篇很不错的jdk安装教程,建议Linux安装的可以去linux公社找找教程
CentOS6安装JDK
4、下载安装Kafka
cd进入相应文件夹,一般安装到/usr/local/src
cd /usr/local/src
wget下载文件
wget http://archive.apache.org/dist/kafka/0.8.2.1/kafka_2.11-0.8.2.1.tgz
解压
tar -xzvf kafka_2.11-0.8.2.1.tgz
移动到安装目录
mv kafka_2.11-0.8.2.1 /usr/local/kafka
5、配置Kafka
创建Kafka日志文件存放文件夹
mkdir /usr/local/kafka/logs/kafka
cd配置文件目录
cd /usr/local/kafka/config
VI编辑
vi server.properties
修改配置
broker.id=0port=9092 #端口号host.name=127.0.0.1 #服务器IP地址,修改为自己的服务器IPlog.dirs=/usr/local/kafka/logs/kafka #日志存放路径,上面创建的目录zookeeper.connect=localhost:2181 #zookeeper地址和端口,单机配置部署,localhost:2181:wq! #保存退出
6、Zookeeper配置
创建一个目录安装
mkdir /usr/local/kafka/zookeeper
创建一个Zookeeper日志存放目录
mkdir /usr/local/kafka/logs/zookeeper
配置文件
cd /usr/local/kafka/config
vi zookeeper.properties
dataDir=/usr/local/kafka/zookeeper #zookeeper数据目录dataLogDir=/usr/local/kafka/log/zookeeper #zookeeper日志目录clientPort=2181maxClientCnxns=100tickTime=2000initLimit=10syncLimit=5:wq! #保存退出
7、脚本编写
编写kafka的start脚本
cd /usr/local/kafka
使用vi创建脚本
vi kafkastart.sh
加入脚本代码,&符号表示在后台执行,然后:wq保存退出
#!/bin/sh#启动zookeeper/usr/local/kafka/bin/zookeeper-server-start.sh /usr/local/kafka/config/zookeeper.properties &sleep 3 #等3秒后执行#启动kafka/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &
编写kafka的stop脚本
vi kafkastop.sh
脚本代码如,同样是:wq保存退出
#!/bin/sh#关闭zookeeper/usr/local/kafka/bin/zookeeper-server-stop.sh /usr/local/kafka/config/zookeeper.properties &sleep 3 #等3秒后执行#关闭kafka/usr/local/kafka/bin/kafka-server-stop.sh /usr/local/kafka/config/server.properties &
添加脚本执行权限
chmod +x kafkastart.shchmod +x kafkastop.sh
8、配置脚本开机自行启动
vi /etc/rc.d/rc.local
设置开机时脚本在后台执行,使用&符号
将如下代码添加到rc.local里,同样使用VI编辑器
sh /usr/local/kafka/kafkastart.sh &
:wq保存退出
9、启动kafka
sh /usr/local/kafka/kafkastart.sh #启动kafka
10、创建topic
usr/local/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test/usr/local/kafka/bin/kafka-topics.sh --list --zookeeper localhost:2181 test/usr/local/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test --from-beginning
- 分布式消息队列kafka原理简介
- Kafka消息队列简介
- Kafka 分布式消息队列介绍
- Kafka分布式消息队列框架
- 分布式消息系统 Kafka 简介
- 分布式消息系统 Kafka 简介
- Kafka消息队列原理总结
- 快速理解Kafka分布式消息队列框架
- 快速理解Kafka分布式消息队列框架
- 快速理解Kafka分布式消息队列框架
- 分布式消息队列Kafka集群安装
- 分布式消息队列Kafka集群安装
- 快速理解Kafka分布式消息队列框架
- 快速理解Kafka分布式消息队列框架
- 快速理解Kafka分布式消息队列框架
- 快速理解Kafka分布式消息队列框架
- 分布式消息队列Kafka集群安装
- 快速理解Kafka分布式消息队列框架
- HTML 基础2
- 智能家居是真蓝海还是伪需求?
- boost-asio学习1——定时器(同步、异步)
- ajax 调用 java webapi 多个参数(一)
- mysql创建外键不起作用
- 分布式消息队列kafka原理简介
- ci框架写接口
- 关于Android 支持 4K 视频显示的问题总结
- odoo之修改test案例为班级管理模块
- cookie的相关操作
- vc++汇总
- Android中控制点击EditText输入框右边清空图标的显示与隐藏.
- Scrapy阅读源码分析<二>
- 中缀表达式转换为后缀表达式