问题:故障域与副本数导致的 PG 不正常

缘起:执行 rbd snap unprotect 执行卡死。
Ceph 故障修复记录(持续更新)
调查:Ceph 集群 PG 不正常。

Ceph 故障修复记录(持续更新)
原因:因为该环境是一个 All-in-one 的环境,CRUSH bucket 默认为 Host 级别,与此同时 Pool: default.rgw.control 的 Replication Size: 3,min_size: 2。在这样的前提下就要求 Ceph 集群中至少必须存在 2 个节点,在数据写入的时候写入到 2 个不同的故障域中,以此来保证高可用特性。

Ceph 故障修复记录(持续更新)

解决:将 Pool: default.rgw.control 的 min_size 设置为 1。

ceph osd pool set default.rgw.control min_size 1

相关文章:

  • 2021-08-02
  • 2022-12-23
  • 2021-08-01
  • 2022-12-23
  • 2021-08-25
  • 2022-02-12
  • 2021-06-07
猜你喜欢
  • 2021-11-13
  • 2021-07-14
  • 2021-10-29
  • 2021-12-22
  • 2021-06-14
  • 2021-07-14
  • 2022-12-23
相关资源
相似解决方案