Java进阶-Kafka进阶

Kafka 设计原理详解

Kafka拓补结构

图1

Kafka核心总控制器Controller

  1. 在Kafka集群中会有一个或者多个broker,其中有一个broker会被选举为控制器(Kafka Controller),它负责管理整个集群中所有分区和副本的状态
    1. 当某个分区的leader副本出现故障时,由控制器负责为该分区选举新的leader副本。
    2. 当检测到某个分区的ISR集合发生变化时,由控制器负责通知所有broker更新其元数据信息。
    3. 当使用kafka-topics.sh脚本为某个topic增加分区数量时,同样还是由控制器负责分区的重新分配。
  2. Controller选举机制
    1. 在kafka集群启动的时候,会自动选举一台broker作为controller来管理整个集群,选举的过程是集群中每个broker都会尝试在zookeeper上创建一个 /controller 临时节点,zookeeper会保证有且仅有一个broker能创建成功,这个broker 就会成为集群的总控器controller。
    2. 当这个controller⻆色的broker宕机了,此时zookeeper临时节点会消失,集群里其他broker会一直监听这个临时节 点,发现临时节点消失了,就竞争再次创建临时节点,就是我们上面说的选举机制,zookeeper又会保证有一个 broker成为新的controller。
    3. 具备控制器身份的broker需要比其他普通的broker多一份职责,具体细节如下:
      1. 监听broker相关的变化。为Zookeeper中的/brokers/ids/节点添加BrokerChangeListener,用来处理broker增减 的变化。
      2. 监听topic相关的变化。为Zookeeper中的/brokers/topics节点添TopicChangeListener,用来处理topic增减的 变化;为Zookeeper中的/admin/delete_topics节点添加TopicDeletionListener,用来处理删除topic的动作。
      3. 从Zookeeper中读取获取当前所有与topic、partition以及broker有关的信息并进行相应的管理。对于所有topic 所对应的Zookeeper中的/brokers/topics/[topic]节点添加PartitionModificationsListener,用来监听topic中的分区 分配变化。
      4. 更新集群的元数据信息,同步到其他普通的broker节点中。

Partition副本选举Leader机制

  1. controller感知到分区leader所在的broker挂了(controller监听了很多zk节点可以感知到broker存活),controller会从每 个parititon的 replicas 副本列表中取出第一个broker作为leader,当然这个broker需要也同时在ISR列表里。

消费者消费消息的offset记录机制

  1. 每个consumer会定期将自己消费分区的offset提交给kafka内部topic:__consumer_offsets,提交过去的时候,key是consumerGroupId+topic+分区号,value就是当前offset的值,kafka会定期清理topic里的消息,最后就保留最新的那条数据
  2. 因为__consumer_offsets可能会接收高并发的请求,kafka默认给其分配50个分区(可以通过 offsets.topic.num.partitions设置),这样可以通过加机器的方式抗大并发。

消费者Rebalance机制

  1. 消费者rebalance就是说如果consumer group中某个消费者挂了,此时会自动把分配给他的分区交给其他的消费者,如果他又重启了,那么又会把一些分区重新交还给他
  2. 如下情况可能会触发消费者rebalance
    1. consumer所在服务重启或宕机了
    2. 动态给topic增加了分区
    3. 消费组订阅了更多的topic
  3. Rebalance过程如下
    1. 当有消费者加入消费组时,消费者、消费组及组协调器之间会经历以下几个阶段。
    2. 第一阶段:选择组协调器
      1. 组协调器GroupCoordinator:每个consumer group都会选择一个broker作为自己组协调器coordinator,负责监控 这个消费组里的所有消费者的心跳,以及判断是否宕机,然后开启消费者rebalance。
      2. consumer group中的每个consumer启动时会向kafka集群中的某个节点发送 FindCoordinatorRequest 请求来查找对应 的组协调器GroupCoordinator,并跟其建立网络连接。
      3. 组协调器选择方式:
        1. 通过如下公式可以选出consumer消费的offset要提交到__consumer_offsets的哪个分区,这个分区leader对应的broker 就是这个consumer group的coordinator
        2. 公式:hash(consumer group id) % __consumer_offsets主题的分区数
    3. 第二阶段:加入消费组JOIN GROUP
      1. 在成功找到消费组所对应的 GroupCoordinator 之后就进入加入消费组的阶段,在此阶段的消费者会向 GroupCoordinator 发送 JoinGroupRequest 请求,并处理响应。然后GroupCoordinator 从一个consumer group中选 择第一个加入group的consumer作为leader(消费组协调器),把consumer group情况发送给这个leader,接着这个 leader会负责制定分区方案。
    4. 第三阶段( SYNC GROUP)
      1. consumer leader通过给GroupCoordinator发送SyncGroupRequest,接着GroupCoordinator就把分区方案下发给各个 consumer,他们会根据指定分区的leader broker进行网络连接以及消息消费。

      图1

  4. 消费者Rebalance分区分配策略:
    1. 主要有三种rebalance的策略:range、round-robin、sticky。
    2. Kafka 提供了消费者客户端参数partition.assignment.strategy 来设置消费者与订阅主题之间的分区分配策略。默认情 况为range分配策略。
    3. 假设一个主题有10个分区(0-9),现在有三个consumer消费:
      1. range策略就是按照分区序号排序,假设 n=分区数/消费者数量 = 3, m=分区数%消费者数量 = 1,那么前 m 个消 费者每个分配 n+1 个分区,后面的(消费者数量-m )个消费者每个分配 n 个分区。 比如分区0~3给一个consumer,分区4~6给一个consumer,分区7~9给一个consumer。
      2. round-robin策略就是轮询分配,比如分区0、3、6、9给一个consumer,分区1、4、7给一个consumer,分区2、 5、8给一个consumer
      3. sticky策略就是在rebalance的时候,需要保证如下两个原则。
        1. 分区的分配要尽可能均匀 。
        2. 分区的分配尽可能与上次分配的保持相同。
    4. 当两者发生冲突时,第一个目标优先于第二个目标 。这样可以最大程度维持原来的分区分配的策略。 比如对于第一种range情况的分配,如果第三个consumer挂了,那么重新用sticky策略分配的结果如下:
      1. consumer1除了原有的0~3,会再分配一个7
      2. consumer2除了原有的4~6,会再分配8和9

producer发布消息机制剖析

  1. 写入方式
    1. producer 采用 push 模式将消息发布到 broker,每条消息都被 append 到 patition 中,属于顺序写磁盘(顺序写磁盘 效率比随机写内存要高,保障 kafka 吞吐率)。
  2. 消息路由
    1. producer 发送消息到 broker 时,会根据分区算法选择将其存储到哪一个 partition。其路由机制为:
      1. 指定了 patition,则直接使用
      2. 未指定 patition 但指定 key,通过对 key 的 value 进行hash 选出一个 patition
      3. patition 和 key 都未指定,使用轮询选出一个 patition。
  3. 写入流程 图1

    1. producer 先从 zookeeper 的 “/brokers/…/state” 节点找到该 partition 的 leader
    2. producer 将消息发送给该 leader
    3. leader 将消息写入本地 log
    4. followers 从 leader pull 消息,写入本地 log 后 向leader 发送 ACK
    5. leader 收到所有 ISR 中的 replica 的 ACK 后,增加 HW(high watermark,最后 commit 的 offset) 并向 producer 发送 ACK

HW与LEO详解

  1. HW俗称高水位,HighWatermark的缩写,取一个partition对应的ISR中最小的LEO(log-end-offset)作为HW,consumer最多只能消费到HW所在的位置。另外每个replica都有HW,leader和follower各自负责更新自己的HW的状 态。对于leader新写入的消息,consumer不能立刻消费,leader会等待该消息被所有ISR中的replicas同步后更新 HW,此时消息才能被consumer消费。这样就保证了如果leader所在的broker失效,该消息仍然可以从新选举的leader 中获取。对于来自内部broker的读取请求,没有HW的限制。

日志分段存储

  1. Kafka 一个分区的消息数据对应存储在一个文件夹下,以topic名称+分区号命名,kafka规定了一个分区内的 .log 文件 最大为 1G,做这个限制目的是为了方便把 .log 加载到内存去操作:

     # 部分消息的offset索引文件,kafka每次往分区发4K(可配置)消息就会记录一条当前消息的offset到index文件,
     # 如果要定位消息的offset会先在这个文件里快速定位,再去log文件里找具体消息
     00000000000000000000.index
     # 消息存储文件,主要存offset和消息体
     00000000000000000000.log
     # 消息的发送时间索引文件,kafka每次往分区发4K(可配置)消息就会记录一条当前消息的发送时间戳与对应的offset到timeindex文 7 # 如果需要按照时间来定位消息的offset,会先在这个文件里查找
     00000000000000000000.timeindex
     00000000000005367851.index
     00000000000005367851.log
     00000000000005367851.timeindex 13 ​
     00000000000009936472.index
     00000000000009936472.log
     00000000000009936472.timeindex
    
    1. 这个 9936472 之类的数字,就是代表了这个日志段文件里包含的起始 Offset,也就说明这个分区里至少都写入了接 近 1000 万条数据了。
    2. Kafka Broker 有一个参数,log.segment.bytes,限定了每个日志段文件的大小,最大就是 1GB。
    3. 一个日志段文件满了,就自动开一个新的日志段文件来写入,避免单个文件过大,影响文件的读写性能,这个过程叫 做 log rolling,正在被写入的那个日志段文件,叫做 active log segment。

zookeeper节点数据图:

图1

性能优化

JVM参数设置

  1. kafka是scala语言开发,运行在JVM上,需要对JVM参数合理设置,参看JVM调优专题 修改bin/kafka-start-server.sh中的jvm设置

     exportKAFKA_HEAP_OPTS="‐Xmx16G‐Xms16G‐Xmn12G‐XX:MetaspaceSize=256M‐X X:+UseG1GC ‐XX:MaxGCPauseMillis=50"
    
  2. 这种大内存的情况一般都要用G1垃圾收集器,因为年轻代内存比较大,用G1可以设置GC 最大停顿时间,不至于一次minor gc就花费太长时间

线上问题及优化(面试,重要!!!)

消息丢失情况:

  1. 消息发送端:
    1. acks=0: 表示producer不需要等待任何broker确认收到消息的回复,就可以继续发 送下一条消息。性能最高,但是最容易丢消息。大数据统计报表场景,对性能要求很高,对数据丢失不敏感的情况可以用这种。
    2. acks=1: 至少要等待leader已经成功将数据写入本地log,但是不需要等待所有 follower是否成功写入。就可以继续发送下一条消息。这种情况下,如果follower没有成功 备份数据,而此时leader又挂掉,则消息会丢失。
    3. acks=-1或all: 这意味着leader需要等待所有备份(min.insync.replicas配置的备份个 数)都成功写入日志,这种策略会保证只要有一个备份存活就不会丢失数据。这是最强的数 据保证。一般除非是金融级别,或跟钱打交道的场景才会使用这种配置。当然如果 min.insync.replicas配置的是1则也可能丢消息,跟acks=1情况类似。
  2. 消息消费端:
    1. 如果消费这边配置的是自动提交,万一消费到数据还没处理完,就自动提交offset了,但是 此时你consumer直接宕机了,未处理完的数据丢失了,下次也消费不到了。

消息重复消费

  1. 消息发送端:
    1. 发送消息如果配置了重试机制,比如网络抖动时间过长导致发送端发送超时,实际broker 可能已经接收到消息,但发送方会重新发送消息
  2. 消息消费端:
    1. 如果消费这边配置的是自动提交,刚拉取了一批数据处理了一部分,但还没来得及提交,服 务挂了,下次重启又会拉取相同的一批数据重复处理 一般消费端都是要做消费幂等处理的。

消息乱序

  1. 如果发送端配置了重试机制,kafka不会等之前那条消息完全发送成功才去发送下一条消 息,这样可能会出现,发送了1,2,3条消息,第一条超时了,后面两条发送成功,再重试 发送第1条消息,这时消息在broker端的顺序就是2,3,1了
  2. 所以,是否一定要配置重试要根据业务情况而定。也可以用同步发送的模式去发消息,当然 acks不能设置为0,这样也能保证消息从发送端到消费端全链路有序。

消息积压

  1. 线上有时因为发送方发送消息速度过快,或者消费方处理消息过慢,可能会导致broker积压大量未消费消息。
    1. 此种情况如果积压了上百万未消费消息需要紧急处理,可以修改消费端程序,让其将收到的消息快速转发到其他topic(可以设置很多分区),然后再启动多个消费者同时消费新主题的不同分区。
    2. 即当前的消费者不消费消息了,只做转发(性能更高),转发给其他重新启动的更多新的消费者去消费
  2. 由于消息数据格式变动或消费者程序有bug,导致消费者一直消费不成功,也可能导致broker积压大量未消费消息。
    1. 此种情况可以将这些消费不成功的消息转发到其它队列里去(类似死信队列),后面再慢慢分析死信队列里的消息处理问题。

延时队列

  1. 延时队列存储的对象是延时消息。所谓的“延时消息”是指消息被发送以后,并不想让消费 者立刻获取,而是等待特定的时间后,消费者才能获取这个消息进行消费,延时队列的使用 场景有很多, 比如 :
    1. 在订单系统中, 一个用户下单之后通常有 30 分钟的时间进行支付,如果 30 分钟之内 没有支付成功,那么这个订单将进行异常处理,这时就可以使用延时队列来处理这些订单 了。
    2. 订单完成1小时后通知用户进行评价。
  2. 实现思路:
    1. 发送延时消息时先把消息按照不同的延迟时间段发送到指定的队列中 (topic_1s,topic_5s,topic_10s,…topic_2h,这个一般不能支持任意时间段的延时),然后通过定时器进行轮训消费这些topic,查看消息是否到期,如果到期就把这个消 息发送到具体业务处理的topic中,队列中消息越靠前的到期时间越早,具体来说就是定时 器在一次消费过程中,对消息的发送时间做判断,看下是否延迟到对应时间了,如果到了就 转发,如果还没到这一次定时任务就可以提前结束了。

消息回溯

  1. 如果某段时间对已消费消息计算的结果觉得有问题,可能是由于程序bug导致的计算错误, 当程序bug修复后,这时可能需要对之前已消费的消息重新消费,可以指定从多久之前的消 息回溯消费,这种可以用consumer的offsetsForTimes、seek等方法指定从某个offset偏 移的消息开始消费

分区数越多吞吐量越高吗

  1. 可以用kafka压测工具自己测试分区数不同,各种情况下的吞吐量

     # 往test里发送一百万消息,每条设置1KB
     # throughput 用来进行限流控制,当设定的值小于 0 时不限流,当设定的值大于 0 时
     当发送的吞吐量大于该值时就会被阻塞一段时间
     bin/kafka‐producer‐perf‐test.sh‐‐topictest‐‐num‐records1000000‐‐reco rd‐size 1024 ‐‐throughput ‐1
     ‐‐producer‐propsbootstrap.servers=192.168.0.60:9092acks=1
    
  2. 网络上很多资料都说分区数越多吞吐量越高 , 但从压测结果来看,分区数到达某个值吞吐 量反而开始下降,实际上很多事情都会有一个临界值,当超过 这个临界值之后,很多原本符合既定逻辑的走向又会变得不同。一般情况分区数跟集群机器 数量相当就差不多了。
  3. 当然吞吐量的数值和走势还会和磁盘、文件系统、 I/O调度策略等因素相关。
  4. 注意:如果分区数设置过大,比如设置10000,可能会设置不成功,后台会报错”java.io.IOException : Too many open files”。异常中最关键的信息是“ Too many open flies”,这是一种常见的 Linux 系统错误,通 常意味着文件描述符不足,它一般发生在创建线程、创建 Socket、打开文件这些场景下 。 在 Linux系统的默认设置下,这个文件描述符的个数不是很多 ,通过 ulimit -n 命令可以查 看:一般默认是1024,可以将该值增大,比如:ulimit -n 65535
Table of Contents