Kafka
发布于2021-05-03 17:35:02,更新于2023-11-17 20:10:14,标签:java kafka 文章会持续修订,转载请注明来源地址:https://meethigher.top/blog老规矩,学东西先学文档
一、Kafka概述
1.1 定义
kafka是一个分布式的基于发布/订阅模式的消息队列Message Queue,主要应用于大数据实时处理领域。
1.2 消息队列
MQ的传统应用场景的异步处理
使用消息队列的好处
- 解耦:允许你独立的扩展或者修改两边的处理过程,只要确保它们遵守同样的接口约束
- 可恢复性:系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可在系统恢复后被处理
- 缓冲:有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息处理速度不一致的情况。
- 灵活性&峰值处理能力:突发流量平时不常见,如果用硬件来解决,会浪费大量资源。使用消息队列能使关键组件顶住突发的访问压力,而不会因为突发的超负荷请求而完全崩溃。
- 异步通信:消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理。想向队列中放入多少消息就放多少,然后在需要的时候再处理它。
消息队列模式
- 点对点模式(一对一,消息消费后,消息被清除,不可重复消费)
- 生产者生产消息发送到queue中,然后消费者从queue中取出并且消费信息。
- 消息被消费以后,queue中不再存储,所以消费者不可能消费到已经被消费的消息
- queue支持存在多个消费者,但是对一个消息而言,只会有一个消费者可以消费
- 发布订阅模式(一对多,消费者消费数据后,不会清除消息,可以重复消费)
- 生产者生产消息到topic中,同时有多个消费者消费该消息。类似于一个发布/订阅,比如微信公众号的推送
发布订阅模式有两种类型
- 消费者主动拉取数据
- 缺点:消费者端需要维护一个长轮询,一直向生产者请求是否有最新数据。
- 消息队列推送数据
- 缺点:资源浪费
1.3 kafka架构
整个架构可以参照下面这张图
仔细看下面这个图,工作中我对kafka集群不了解,看博客也没仔细看,其实仔细看看就会了。就看下面这张图!
让所有的Kafka是一个集群,只需要使用同一套ZK即可,即可以是一个zk,也可以是zk集群,不过都需要在kafka配置文件里面配置。
Producer :消息生产者,就是向 kafka broker 发消息的客户端;
Consumer :消息消费者,向 kafka broker 取消息的客户端;
Consumer Group(CG):消费者组,由多个consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker 可以容纳多个topic。
Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic;
Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上, 一个 topic 可以分为多个 partition,每个partition 是一个有序的队列;
Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失且 kafka 仍然能够继续工作,kafka 提供了副本机制,一个 topic 的每个分区都有若干个副本, 一个 leader 和若干个 follower。
leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。
follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的 follower。
二、Kafka快速入门
2.1 使用ZK常规安装
首先进入官网下载
我使用的是kafka_2.12-2.8.0,2.12指的是Scala的版本,2.8.0才是kafka的版本。
安装kafka
进入服务器的/opt/software目录下,执行命令进行下载
1 | wget https://downloads.apache.org/kafka/2.8.0/kafka_2.12-2.8.0.tgz |
如果wget不存在的话,那么就安装wget,-y表示yes or no时,选择yes
1 | sudo yum -y install wget |
解压到/opt/module下面
1 | tar -zxvf kafka_2.12-2.8.0.tgz -C /opt/module |
进入module下面,重命名文件夹
1 | mv kafka_2.12-2.8.0.tgz kafka-2.12-2.8.0 |
将该kafka的文件夹分发到该集群下的别的机器上,scp详细教程参考
1 | scp -r kafka-2.12-2.8.0 root@hadoop102:/opt/module |
修改kafka配置文件server.properties中的brokerId
1 | # The id of the broker. This must be set to a unique integer for each broker. |
配置kafka环境变量,参考配置环境变量的三种方式
1 | cd /etc/profile.d #第一步 |
安装zookeeper
下载安装Zookeeper,注意要与kafka中的libs下的zookeeper的jar包版本一致。
1 | wget https://downloads.apache.org/zookeeper/zookeeper-3.5.9/apache-zookeeper-3.5.9-bin.tar.gz |
解压操作类似于安装kafka、配置环境变量也一样。
进入zk的conf下,复制一份配置文件
1 | cp zoo_sample.cfg zoo.cfg |
启动zk
1 | zkServer.sh start |
配置Kafka集群
配置kafka集群,最关键的还是broker.id、zookeeper.connect
1 | # 节点的id,每个节点的id必须是唯一的 |
2.2 使用Kraft
配置单节点
kafka官网没有对不使用zk的安装做说明,明明支持kraft,但还是用的zk。不知道是因为不稳定不推荐还是维护文档的人给忘记更新了。
进入kafka根目录
1 | ./bin/kafka-storage.sh random-uuid |
注意
这个uuid可以不用生成,直接自己随便填一个也可以。这个uuid主要用来做kafka集群(或单节点)的cluster_id
这样能启动成功了,但是还是不能远程访问,修改kraft的配置文件,将localhost都改为你的ip地址。
再次启动即可。
简单写一个后台启动kafka的shell脚本
1 | rand=`./bin/kafka-storage.sh random-uuid` |
配置kafka集群
Kafka高可用 — KRaft集群搭建_WonderThink的博客-CSDN博客_kafka kraft集群
推荐一套三个节点下的kraft集群配置
1 | # 此配置文件用于KRaft模式,其中Apache ZooKeeper不存在。 |
2.3 基础维护命令
查看topic分区情况
1 | # 查看所有topic |
查看所有组的消费情况
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --describe --all-groups |
查看某个消费者组中所有消费者的消费情况,WORKING_AREA
是组名
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --describe --group WORKING_AREA |
查看该组所有的消费者
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --describe --group WORKING_AREA --members |
查看该组所有消费者及消费时分配的分区
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --describe --group WORKING_AREA --members --verbose |
手动删除一个或者多个消费者组
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --delete --group 组1 --group 组2 |
重置消费者从最新位置开始消费
1 | ./kafka-consumer-groups.sh --bootstrap-server 192.168.110.67:9092 --reset-offsets --group WORKING_AREA --topic topic1 --to-latest |
kafka清空数据时,需要查看启动命令使用的配置文件。
比如
1 | nohup ./bin/kafka-server-start.sh ./config/kraft/server.properties >/dev/null 2>&1 & |
清空server.properties
里面的log.dirs
文件夹即可
1 | ############################# Log Basics ############################# |