Собрал два массива с mdadm с одинаковыми характеристиками в дисках, но получились немного разные размеры
У меня проблемы с размером массивов, созданных mdadm. Во-первых, немного контекста. Недавно я обновился с сервера Ubuntu 18.04 до 20.04. Я использую несколько массивов raid5 и raid10. Два из них станут предметом этого вопроса. Я использую два массива raid5 с 4 активными «устройствами» (фактически разделами) и одним запасным. Рейды называются md5 и md6. После обновления один из дисков сломался, но md5 и md6 вели себя по-разному. На мд5 пинал запаску, пересобирая сам себя, а мд6 показывал, что одно из устройств удалено, а запаска не кикнула. Пришлось пересоздавать вручную.
Подводя итог, md5 и md6 имеют одинаковый объем диска и разделы имеют одинаковый размер. До обновления и сбоя диска md5 и md6 также имели одинаковый размер. После обновления и сбоя диска md6 пришлось создавать заново с нуля, и в итоге он получил другой размер. md5 был создан с серверной версией 18.04, а md6 — с серверной версией 20.04.
Вот подробности.
Выход:
lsblk --fs
sda
├─sda1
├─sda2 linux_raid_member (none):5 3c2fa5c0-42a9-e54c-7487-7dbc38986eaf
│ └─md5 ext4 FSROOT1 446d8ccf-08ea-4300-8d9e-72cf4606966a 221.6G 5% /
├─sda3 linux_raid_member salto-server:6 fbc8430b-64d7-8d34-b54f-6c4626505783
│ └─md6 ext4 acb4b5ec-7ad6-476c-951e-3f12e6a2b3cf
├─sda4 linux_raid_member ubuntu:7 a6a7101e-539e-1310-1f8e-1d6af62327a6
│ └─md7 ext4 FDDATA1 9c42781d-cb8a-4061-ac43-13fbf24f40e3 1.6T 35% /mnt/r5d2
├─sda5 linux_raid_member salto-server:4 a7ef9f85-e156-fc26-1aff-66d7eec302c9
│ └─md4 swap SWAP 09a58a47-0ca0-452d-ac72-d09c3e198c11 [SWAP]
└─sda6 linux_raid_member ubuntu:8 9f6decc2-851b-6c29-ac65-4940b7a4d4c5
└─md8 ext4 FDDATA2 6c8dc3b0-3e23-4268-8b33-bb6d106b0d44 1.5T 64% /mnt/r5d3
sdb
├─sdb1
├─sdb2 linux_raid_member (none):5 3c2fa5c0-42a9-e54c-7487-7dbc38986eaf
│ └─md5 ext4 FSROOT1 446d8ccf-08ea-4300-8d9e-72cf4606966a 221.6G 5% /
├─sdb3 linux_raid_member salto-server:6 fbc8430b-64d7-8d34-b54f-6c4626505783
│ └─md6 ext4 acb4b5ec-7ad6-476c-951e-3f12e6a2b3cf
├─sdb4 linux_raid_member ubuntu:7 a6a7101e-539e-1310-1f8e-1d6af62327a6
│ └─md7 ext4 FDDATA1 9c42781d-cb8a-4061-ac43-13fbf24f40e3 1.6T 35% /mnt/r5d2
├─sdb5 linux_raid_member salto-server:4 a7ef9f85-e156-fc26-1aff-66d7eec302c9
│ └─md4 swap SWAP 09a58a47-0ca0-452d-ac72-d09c3e198c11 [SWAP]
└─sdb6 linux_raid_member ubuntu:8 9f6decc2-851b-6c29-ac65-4940b7a4d4c5
└─md8 ext4 FDDATA2 6c8dc3b0-3e23-4268-8b33-bb6d106b0d44 1.5T 64% /mnt/r5d3
sdc
├─sdc1
├─sdc2 linux_raid_member (none):5 3c2fa5c0-42a9-e54c-7487-7dbc38986eaf
│ └─md5 ext4 FSROOT1 446d8ccf-08ea-4300-8d9e-72cf4606966a 221.6G 5% /
├─sdc3 linux_raid_member salto-server:6 fbc8430b-64d7-8d34-b54f-6c4626505783
│ └─md6 ext4 acb4b5ec-7ad6-476c-951e-3f12e6a2b3cf
├─sdc4 linux_raid_member ubuntu:7 a6a7101e-539e-1310-1f8e-1d6af62327a6
│ └─md7 ext4 FDDATA1 9c42781d-cb8a-4061-ac43-13fbf24f40e3 1.6T 35% /mnt/r5d2
├─sdc5 linux_raid_member salto-server:4 a7ef9f85-e156-fc26-1aff-66d7eec302c9
│ └─md4 swap SWAP 09a58a47-0ca0-452d-ac72-d09c3e198c11 [SWAP]
└─sdc6 linux_raid_member ubuntu:8 9f6decc2-851b-6c29-ac65-4940b7a4d4c5
└─md8 ext4 FDDATA2 6c8dc3b0-3e23-4268-8b33-bb6d106b0d44 1.5T 64% /mnt/r5d3
sdd
├─sdd1
├─sdd2 linux_raid_member (none):5 3c2fa5c0-42a9-e54c-7487-7dbc38986eaf
│ └─md5 ext4 FSROOT1 446d8ccf-08ea-4300-8d9e-72cf4606966a 221.6G 5% /
├─sdd3 linux_raid_member salto-server:6 fbc8430b-64d7-8d34-b54f-6c4626505783
│ └─md6 ext4 acb4b5ec-7ad6-476c-951e-3f12e6a2b3cf
├─sdd4 linux_raid_member ubuntu:7 a6a7101e-539e-1310-1f8e-1d6af62327a6
│ └─md7 ext4 FDDATA1 9c42781d-cb8a-4061-ac43-13fbf24f40e3 1.6T 35% /mnt/r5d2
├─sdd5 linux_raid_member salto-server:4 a7ef9f85-e156-fc26-1aff-66d7eec302c9
│ └─md4 swap SWAP 09a58a47-0ca0-452d-ac72-d09c3e198c11 [SWAP]
└─sdd6 linux_raid_member ubuntu:8 9f6decc2-851b-6c29-ac65-4940b7a4d4c5
└─md8 ext4 FDDATA2 6c8dc3b0-3e23-4268-8b33-bb6d106b0d44 1.5T 64% /mnt/r5d3
Вот конформация устройств.
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md4 : active raid10 sda5[0] sdd5[3] sdc5[2] sdb5[1]
9754624 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
md6 : active raid5 sda3[0] sdd3[4] sdc3[2] sdb3[1]
263473152 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
md8 : active raid5 sdd6[6] sda6[0] sdc6[5] sdb6[4]
5318710272 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 0/14 pages [0KB], 65536KB chunk
md7 : active raid5 sdd4[6] sda4[0] sdc4[5] sdb4[4]
2929293312 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 3/8 pages [12KB], 65536KB chunk
md5 : active raid5 sdd2[6] sda2[0] sdc2[5] sdb2[4]
263476224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
Обратите внимание на этом шаге, что md6 и md5 показывают разное количество блоков.
Вот размеры устройств
sudo fdisk -l /dev/sd[a-d][2,3]
Disk /dev/sda2: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sda3: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdb2: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdb3: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdc2: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdc3: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdd2: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdd3: 83.84 GiB, 90000326656 bytes, 175781888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Для избыточности вот вывод fdisk на md5 и md6
fdisk -l /dev/md[5,6]
Disk /dev/md5: 251.28 GiB, 269799653376 bytes, 526952448 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 1572864 bytes
Disk /dev/md6: 251.27 GiB, 269796507648 bytes, 526946304 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 1572864 bytes
Может быть, я что-то упускаю или какая-то опция скрыта. Но я уверен, что оба массива были созданы одними и теми же командами. Похоже, что разные версии mdadm создавали массивы с немного разными размерами.
Есть ли способ узнать, в чем разница? А может пересобрать md6 под md5? Я не могу трогать md5 как /, но md6 был резервным, и я могу делать с ним все, что захочу.
Заранее спасибо за помощь.