kafka 保证消息不丢失。原因如下有:

1)生产者如果异步发送,会造成消息丢失,发送的过程中kafka会先把消息缓存起来。然后批量发送。 若批量发送之前client宕机会造成消息丢失。生产者不丢失消息需要同步发送

2)kafka服务器默认异步刷盘,先刷到系统页缓存,然后再刷新到日志文件。页缓存的数据可能会丢失。解决可以同步的方式刷盘,但是这样效率很低,比rabbitmq低。

 对于我说的第二点有点问题。在配置ack=all , min.insync.replas > 1 是可以保证页缓存数据不丢失。

3)关闭自动提交

4)unclean.leader = false

 

相关文章:

  • 2021-08-15
  • 2022-01-15
  • 2021-10-07
  • 2021-08-16
  • 2022-12-23
猜你喜欢
  • 2022-02-05
  • 2021-11-02
  • 2022-12-23
  • 2022-12-23
  • 2021-10-05
  • 2021-05-15
  • 2021-09-28
相关资源
相似解决方案