Восстановление из RAID5 с 2 неисправными дисками, только один из них действительно мертв
У меня есть (был?) RAID5 с 3 устройствами. Один из них умер, и через несколько дней я почувствовал, что RAID вообще остановился. Тем не менее, я мог перезапустить его без каких-либо проблем, но через несколько часов он снова прекратился, я перезапустил его, и через несколько секунд он снова остановился и так далее. Уже через месяц RAID больше не может запускаться. (В течение последнего месяца я ничего не делал с RAID, так как у меня не было на это времени.)
Я не знаю, это аппаратный сбой (приводов) или "просто" неисправный контакт силового кабеля, так как у меня были проблемы с этим год назад. В настоящее время я надеюсь на "просто" дефектный контакт. RAID хранит в основном данные, из которых у меня есть резервная копия, однако резервная копия не содержит изменений, внесенных в течение месяца или около того.
Я нашел этот пост в блоге о восстановлении с RAID5 с двумя неисправными дисками. В нем описана похожая проблема, с которой я (надеюсь) столкнусь: диски (или, по крайней мере, один из двух неисправных) на самом деле не повреждены, а только отсоединены от компьютера. Их подход заключается в воссоздании RAID5 с использованием всех устройств, кроме первого вышедшего из строя.
В моем случае у меня три диска, один из которых мертвый. Так что у меня осталось только два: /dev/sda1 и /dev/sdc1, в то время как последний был "отсоединен" (по крайней мере, я надеюсь, что он не умер). Поэтому я надеюсь получить самую важную информацию от изучения этого устройства:
sudo mdadm --examine /dev/sdc1
Magic : a92b4efc
Version : 0.90.00
UUID : 83cb326b:8da61825:203b04db:473acb55 (local to host sebastian)
Creation Time : Wed Jul 28 03:52:54 2010
Raid Level : raid5
Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
Array Size : 1465143808 (1397.27 GiB 1500.31 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 127
Update Time : Tue Oct 23 19:19:10 2012
State : clean
Internal Bitmap : present
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : eaa3f133 - correct
Events : 523908
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 33 1 active sync /dev/sdc1
0 0 8 1 0 active sync /dev/sda1
1 1 8 33 1 active sync /dev/sdc1
2 2 0 0 2 faulty removed
Так что именно 23 октября RAID перестал работать вообще.
Теперь я хочу восстановить с помощью двух устройств с командой
sudo mdadm --verbose --create /dev/md127 --chunk=64 --level=5 --raid-devices=3 /dev/sda1 /dev/sdc1 missing
Я надеюсь, что кто-то может сказать мне, если это правильная команда для использования. Я очень нервничаю... Это говорит мне, чтобы подтвердить следующие данные о дисках, которые будут использоваться для воссоздания массива:
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: /dev/sda1 appears to contain an ext2fs file system
size=1465143808K mtime=Tue Oct 23 14:39:49 2012
mdadm: /dev/sda1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: layout defaults to left-symmetric
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: size set to 732570816K
Continue creating array?
Дополнительная информация: однажды я создал массив с дисками 3 * 750 ГБ, поэтому размер файловой системы составляет 1,5 ТБ (ext2). В частности, мне интересно, верна ли строка, в которой говорится, что / dev / sda1 содержит файловую систему ext2 объемом 1,5 ТБ, потому что в сообщении блога, указанном выше, их вывод не показывает такую строку...
Мне также интересно, должен ли я сначала обнулить суперблок на любом устройстве...
Могу ли я сделать какие-либо проверки, чтобы подтвердить, что это, скорее всего, не приведет к полному уничтожению чего-то, от чего есть шанс восстановиться?