分布式消息服务Kafka

业务过载最佳实践

2024-05-08 09:08:38

方案概述

Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。

l  当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。

l  当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。

CPU使用率高的原因

l  数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。

l  分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。

磁盘写满的原因

l  业务数据增长较快,已有的磁盘空间不能满足业务数据需要。

l  节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。

l  Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。

实施步骤

CPU使用率高的处理措施:

l  优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。

l  num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。

l  num.replica.fetchers建议配置不超过5。

l  合理设置Topic的分区,分区一般设置为节点个数的倍数。

l  生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。

磁盘写满的处理措施:

l  扩容磁盘,使磁盘具备更大的存储空间。

l  迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。

l  合理设置Topic的数据老化时间,减少历史数据的容量大小。

l  在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。

l  常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。

可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。


Properties props =     new Properties();

props.put("bootstrap.servers",     "localhost:9092");

props.put("acks",     "all");

props.put("key.serializer",     "org.apache.kafka.common.serialization.StringSerializer");

props.put("value.serializer",     "org.apache.kafka.common.serialization.StringSerializer");

// 开启GZIP压缩

props.put("compression.type",     "gzip");

Producer<String,     String> producer = new KafkaProducer<>(props);



.f9yWMQf9uAX