Изучите устойчивость ceph на автопилоте openstack
Теперь у меня есть 7-узловый кластер openstack, созданный с помощью ландшафта / автопилота. Я выбрал ceph для всего.
После того, как я вошел в Джуджу / заглянул в ceph.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
- Как я вижу, насколько у меня есть "устойчивость", и сколько раз реплицируются данные?
- Хранятся ли экземпляры также на ceph, чтобы я мог выполнять живую миграцию?
2 ответа
Решение
Чтобы найти устойчивость ваших данных, попробуйте
sudo ceph osd dump | less
В начале вывода он покажет вам пулы и реплицируемый размер или количество кодов стирания в зависимости от вашей настройки.
Динамическая миграция экземпляра зависит от типа используемого тома. Если это хранилище с томом, то вы можете использовать живую миграцию. (И да, эти тома также находятся на Ceph).
Устойчивость Ceph в Автопилоте составляет 3 реплики. Кодирование стирания не используется, так как в настоящее время это не рекомендуется для блочных.