下图是我的测试集群空间使用情况(osd pool default size = 3):

ceph MAX AVAIL 与总 cluster AVAIL不匹配问题

AVAIL > POOLS MAX AVAIL/3

当这个问题出现时,我百思不得其解,开始以为是quota的问题,随后调整quota,MAX AVAIL没有任何。

后来想到有可能是因为新添加的osd没有真正融入pool中

使用命令:

ceph osd df

看到如下情况:

ceph MAX AVAIL 与总 cluster AVAIL不匹配问题

果然,有三块硬盘没有加入pool中

遂查看crushmap文件,发现未加入pool的osd所在的ceph node 没有加入到集群root下(默认的root default下)

修改之

重新注入,变化发生

ceph MAX AVAIL 与总 cluster AVAIL不匹配问题

ceph MAX AVAIL 与总 cluster AVAIL不匹配问题

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2022-03-02
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-06-26
  • 2021-12-31
猜你喜欢
  • 2022-12-23
  • 2021-05-21
  • 2021-12-26
  • 2022-12-23
  • 2022-12-23
  • 2022-02-11
  • 2022-12-23
相关资源
相似解决方案