我有一个 Ceph 集群,旨在作为 CephFS 在硬盘驱动器机箱上运行,为多个服务器提供总共 9PiB 的原始空间。
我创建了一个 3+3 擦除编码池,它应该跨越我的硬盘驱动器的整个原始空间。
令人惊讶的是,它似乎只占用了 9PiB 中的 6PiB,所以当我向其中写入 ~2.5PiB 数据(以及 ~2.5PiB 更多校验和)时,它说我只有 500TiB 可用空间(对应于 1PiB 原始空间)。
这是输出ceph df
:
$ sudo ceph df
RAW STORAGE:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 8.9 PiB 3.7 PiB 5.2 PiB 5.2 PiB 58.62
ssd 35 TiB 15 TiB 20 TiB 20 TiB 57.96
TOTAL 9.0 PiB 3.7 PiB 5.2 PiB 5.3 PiB 58.62
POOLS:
POOL ID STORED OBJECTS USED %USED MAX AVAIL
cephfs_metadata 7 5.1 GiB 1.55M 5.7 GiB 0.15 780 GiB
cephfs_erdata 8 2.5 PiB 687.98M 5.2 PiB 84.29 500 TiB
请注意池 cephfs_erdata 部分中的MAX AVAIL
列POOLS
指出只剩下 500TiB,而AVAIL
列中的列RAW STORAGE
hdd
CLASS
有 3.7PiB 可用。
这意味着什么?我可以为该池分配更多空间吗?为什么 Ceph 本身不为其分配所有可用空间?