Восстановление raid5 (mdraid) после чистой установки ОС (Ubuntu Server 12.04)
========
После переустановки ОС у меня возникают проблемы с доступом к данным, хранящимся в группе RAID5, построенной на 8 жестких дисках, с использованием mdraid. Совет очень ценится!
У меня есть домашний домашний NAS-сервер на базе Intel Atom (Zotac NM10-DTX WiFi), 8 жестких дисков WD Caviar емкостью 2 ТБ, подключенных через HighPoint-RocketRAID 2680, а также 64 ГБ SSD для ОС.
Установка работала нормально в течение почти 2 лет (на Ubuntu Server 10.4 LTS) и использовала mdraid (оказалось, что я мог добиться лучшей производительности, используя адаптер RAID только для подключения дисков и используя mdraid для создания массива RAID5 объемом 14 ТБ).
Недавно у меня начались проблемы с производительностью (чтение и запись стали медленными - как при доступе к данным с других хостов в моей сети, так и при локальном запуске dd на сервере NAS), поэтому я решил обновить ОС уже давно (я были только автоматические обновления безопасности). Обновление прошло ужасно неправильно с ОС, которая даже не загружалась после обновления - поэтому я решил сделать чистую установку Ubuntu Server 12.04.
Благодаря askubuntu мне удалось собрать драйвер для RocketRAID 2680, и я могу видеть все 8 дисков (/dev/sdb через /dev/sdi) и запустить mdadm --examine:
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Creation Time : Wed Jan 5 16:47:34 2011
Raid Level : raid5
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Update Time : Tue Oct 15 18:36:41 2013
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Checksum : d1fdf40 - correct
Events : 1010
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 65 3 active sync /dev/sde1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 97 5 active sync /dev/sdg1
6 6 8 113 6 active sync /dev/sdh1
7 7 8 129 7 active sync /dev/sdi1
Я также смог активировать /ded/md0, запустив:
mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1
... возвращение:
mdadm: /dev/md0 has been started with 8 drives.
+ СЕЙЧАС ДЛЯ ПРОБЛЕМЫ: +
Хотя массив, кажется, успешно перезапустился, я не вижу свой раздел размером 14 ТБ, который я создал 2 года назад (и с тех пор использовал для хранения всех своих данных). При запуске cfdisk отображается только один раздел Linux с емкостью ~1,8 ТБ и неиспользованным пространством ~12 ТБ:
Disk Drive: /dev/md0
Size: 14002195070976 bytes, 14002.1 GB
Heads: 2 Sectors per Track: 4 Cylinders: 3418504656
Name Flags Part Type FS Type [Label] Size (MB)
--------------------------------------------------------------------------
Pri/Log Free Space 0.06
md0p1 Primary Linux 1750274.33
Pri/Log Free Space 12251920.69
То же самое также появляется при запуске mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Wed Jan 5 16:47:34 2011
Raid Level : raid5
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Oct 16 11:07:25 2013
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Events : 0.1010
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 8 81 4 active sync /dev/sdf1
5 8 97 5 active sync /dev/sdg1
6 8 113 6 active sync /dev/sdh1
7 8 129 7 active sync /dev/sdi1
Если я правильно понимаю - разница между "Размер массива" и "Размер используемого устройства" (2 ТБ против 14 ТБ) означает, что есть проблема. Я не хочу пытаться смонтировать раздел, пока не пойму, что происходит (чтобы избежать каких-либо изменений в данных, которые препятствовали бы повторному доступу к моей RAID-группе).
Любой совет будет очень признателен, так как я использовал этот сервер NAS для всех резервных копий и цифровых носителей.
Я забыл щелкнуть последний выключатель, или я полностью облажался?
1 ответ
Размер используемого устройства означает, что каждый отдельный диск составляет 2 ТБ. Не использовать cfdisk
так как это старый глючный POS, который понимает только таблицу разделов msdos, которая не поддерживает диски> 2 ТБ. использование parted
вместо этого, который поддерживает gpt.
Что еще более важно, я не думаю, что у вас даже есть таблица разделов в массиве raid. Более типично просто форматировать весь массив, а не разбивать его на части, поэтому просто попробуйте смонтировать массив.