6 Pool操作
6.0 pool 说明
2^11 > 2000 < 2^10,所以 60 个 osd,副本数为 3 时,pg_num 设置为 2048,pgp_num 默认和 pg_num 保持一致。
6.1 列出存储池
3 cephfs_metadata
6.2 创建存储池
4 rbd-pool
6.3 设置存储池配额
autoscale_mode on last_change 378 flags hashpspool max_objects 10000 stripe_width 0
6.4 删除存储池
pool 'rbd-pool' removed
6.5 重命名存储池
name: cephfs, metadata pool: cephfs_metadata_lc, data pools: [cephfs_data_lc ]
6.6 查看存储池统计信息
[root@ceph-deploy ~]# rados df
6.7 给存储池做快照
1 snaps
6.8 删除存储池的快照
0 snaps
6.9 获取存储池选项值
[root@ceph-deploy ~]# ceph osd dump | grep 'replicated size'
6.10 调整存储池选项值
群占用容量后除以 2 副本数),自己手动计算的结果和 ceph 集群计算的结果相差不多。多个存储池对 ceph 集群存储容量是共享的。
6.11 pool快照的使用
pool 做快照了,反之,如果对一个 pool 做了快照,就不能创建 rbd image 了。
7 用户管理
Ceph 把数据以对象的形式存于各存储池中。Ceph 用户必须具有访问存储池的权限才能够读写数据。另外,Ceph 用户必须具有执行权限才能够使用 Ceph 的管理命令。
7.1 查看用户信息
AQArL5JhBEiAKRAAymBtomUPKP6M/BSI17oXyg==
7.2 添加用户
# ceph auth get-or-create-key client.ringo mon 'allow r' osd 'allow rw pool=liverpool' -o ringo.key
7.3 修改用户权限
# ceph auth caps client.ringo mon ' ' osd ' '
7.4 删除用户
说明: 其中,{TYPE} 是 client,osd,mon 或 mds 的其中一种。{ID} 是用户的名字或守护进程的 ID。