NAS Raid 5 Recovery с использованием mdadm: проблемы с объемом и монтированием, пожалуйста, помогите
Здравствуйте, это мой первый набег на Ubuntu или любую форму Linix в этом отношении, а также моя первая попытка восстановить потерянный рейд, но я довольно быстро учусь. У меня есть 8TB WD Sharespace, четыре накопителя по 2 ТБ, настроенные на Raid 5 с двумя "неисправными" (возможно, нет) дисками. Я отчаянно пытаюсь восстановить свои данные. Помимо всей музыки, фильмов, игр и т. Д., Все мои фотографии и домашние видео о том, как растут мои дети, посвящены этой теме, и я довольно отчаянно пытаюсь их восстановить. Помимо того, что я предпочитаю делать что-то самостоятельно, я не могу позволить себе профессиональное восстановление данных. У меня нет резервных дисков для копирования моих оригиналов, и я не могу себе их позволить, поэтому я застрял, пытаясь сделать это самостоятельно с оригинальными дисками. Любая помощь приветствуется.
Простите, если я перебиваю, потому что я не совсем уверен, что актуально, а что нет, поскольку я пытаюсь это выяснить. Я считаю, что контроллер в моем NAS вышел из строя, и данные на дисках фактически остаются нетронутыми. Я вытащил все четыре привода из NAS и привел их в порядок в моем компе, отсоединившем мои обычные жесткие диски, и я использую Live CD в пробном режиме для запуска Ubuntu. До сих пор я пытался сделать это, используя это руководство: HOWTO: Sharespace Raid 5 Восстановление данных, но я столкнулся с несколькими препятствиями на этом пути, и весь форум закрыт, поэтому я не могу задавать вопросы там.
Первым делом я настроил себя на пользователя root и проверил, чтобы все мои диски были в нужном месте и были распознаны. Использование fdisk -l
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sda1 1 417689 208844+ fd Linux raid autodetect
/dev/sda2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sda3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sda4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdb1 1 417689 208844+ fd Linux raid autodetect
/dev/sdb2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdb3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdb4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdc1 1 417689 208844+ fd Linux raid autodetect
/dev/sdc2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdc3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdc4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdd1 1 417689 208844+ fd Linux raid autodetect
/dev/sdd2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdd3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdd4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Не совсем зная, что я ищу, но не видя ничего, что вызывало какие-либо красные флаги, все они выглядят довольно целыми и здоровыми для меня, поэтому я продолжаю пытаться собрать рейд из разделов sd*4, которые должны быть теми, с данными, чтобы восстановить рейд.
Я старался:
mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4
но я получил ошибку о двух дисках и их было недостаточно, поэтому я начал просматривать интернет и узнал, что есть команда force, поэтому я использовал ее:
mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4
и это, казалось, сработало. ДА!... вроде...
vgscan
No volume groups found
Бу... Итак, вернувшись к поиску в интернете, я обнаружил пост, где у кого-то возникла похожая проблема, и ему пришлось воссоздавать свои тома и локальные группы для успешного доступа к своим данным. Используя имена групп томов и локальных групп из руководства, которое я использовал, я создал их, используя новые команды, которые я нашел:
vgcreate vg0 /dev/md0
а также
lvcreate -L5.45T -n lv0 vg0
оба сообщили о создании, и все казалось хорошим в мире. Пока, возвращаясь к своему гиду, я не пытался его смонтировать:
mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type
Очевидно, "авто" не работает, как сказал гид. Покопавшись в сети, я нашел пару типов файловых систем ext3 и ext 4, поэтому я тоже попробовал их:
mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
а также
mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
Как видите, ни одна из них не сработала... Итак, после нескольких часов поисков я пришел к выводу, что мне действительно нужно обратиться за помощью. Если у кого-нибудь есть какие-либо предложения или советы, или даже лучше знает, как сделать эту работу, я был бы очень признателен за понимание. Если бы я сделал что-то не так, это было бы очень полезно знать.
Я подумал, что это также может быть полезно:
mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Thu Dec 10 05:44:29 2009
Raid Level : raid5
Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Apr 4 08:12:03 2013
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : dd69553d:5c832cf7:9755c9c8:d208511e
Events : 0.3986045
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
2 8 36 2 active sync /dev/sdc4
3 0 0 3 removed
так же как и это:
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
unused devices: <none>
Вот как теперь выглядит мой fdisk -l после игры со всем этим:
fdisk -l
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sda1 1 417689 208844+ fd Linux raid autodetect
/dev/sda2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sda3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sda4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdb1 1 417689 208844+ fd Linux raid autodetect
/dev/sdb2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdb3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdb4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdc1 1 417689 208844+ fd Linux raid autodetect
/dev/sdc2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdc3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdc4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdd1 1 417689 208844+ fd Linux raid autodetect
/dev/sdd2 417690 2506139 1044225 fd Linux raid autodetect
/dev/sdd3 2506140 2923829 208845 fd Linux raid autodetect
/dev/sdd4 2923830 3907024064 1952050117+ fd Linux raid autodetect
Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000
Disk /dev/md0 doesn't contain a valid partition table
Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000
Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table
Пожалуйста, имейте в виду, что я все еще новичок в этом, поэтому будет очень признателен, если какой-либо совет может прийти с некоторым базовым пониманием того, почему вы делаете свое предложение. Это поможет мне лучше понять, чем я занимаюсь. Спасибо!
2 ответа
Из предоставленной вами информации я думаю, что вы, вероятно, правы в том, что подавляющее большинство ваших данных остается нетронутыми. На данный момент вы имеете дело с битым массивом RAID. Очевидно, не там, где ты хочешь быть, но и не конец света.
По моему опыту работы с блоками ShareSpace обычно один диск выпадает из массива задолго до того, как RAID на самом деле выходит из строя. Система программного обеспечения Linux Linux обнаруживает первый сбой диска и переключает массив в режим с ухудшенными характеристиками. Это означает, что массив продолжает работать, но он использует только три оставшихся хороших диска. Вещи будут работать нормально в течение некоторого времени, пока второй диск не выпадет из массива. Затем происходит сбой RAID, и у вас есть проблема.
Эти диски выпадают по причине. Обычно это плохие сектора. К счастью, выздоровление очень часто возможно. Но вы должны действовать осторожно, так как любые шаги, которые вы предпримете, уменьшат шансы на восстановление данных.
Если вы хотите оставить все как есть, я бы посоветовал вам сделать резервную копию, прежде чем продолжить. Я знаю, легче сказать, чем сделать с четырьмя дисками по 2 ТБ. Но вам действительно нужно сделать резервную копию только трех из них: /dev/sda, /dev/sdb и /dev/sdc.
Или, если вам нужна помощь, я онлайн-консультант по восстановлению данных. И я выполняю удаленное восстановление данных NAS / RAID через Интернет для клиентов по всему миру. В прошлом я выполнял много успешных удаленных операций восстановления данных WD ShareSpace. Я предлагаю как удаленное восстановление данных, так и помощь в восстановлении данных. Если вам нравится, я был бы рад помочь вам. Свяжитесь со мной через мой сайт. Меня зовут Стивен Харан, и мой сайт http://www.freedatarecovery.us/
Обновление: все мои данные удалось восстановить благодаря Стивену. Я настоятельно рекомендую его сервис, если кому-то нужна помощь с любым видом восстановления данных. http://www.freedata recovery.us/