NAS Raid 5 Recovery с использованием mdadm: проблемы с объемом и монтированием, пожалуйста, помогите

Здравствуйте, это мой первый набег на Ubuntu или любую форму Linix в этом отношении, а также моя первая попытка восстановить потерянный рейд, но я довольно быстро учусь. У меня есть 8TB WD Sharespace, четыре накопителя по 2 ТБ, настроенные на Raid 5 с двумя "неисправными" (возможно, нет) дисками. Я отчаянно пытаюсь восстановить свои данные. Помимо всей музыки, фильмов, игр и т. Д., Все мои фотографии и домашние видео о том, как растут мои дети, посвящены этой теме, и я довольно отчаянно пытаюсь их восстановить. Помимо того, что я предпочитаю делать что-то самостоятельно, я не могу позволить себе профессиональное восстановление данных. У меня нет резервных дисков для копирования моих оригиналов, и я не могу себе их позволить, поэтому я застрял, пытаясь сделать это самостоятельно с оригинальными дисками. Любая помощь приветствуется.

Простите, если я перебиваю, потому что я не совсем уверен, что актуально, а что нет, поскольку я пытаюсь это выяснить. Я считаю, что контроллер в моем NAS вышел из строя, и данные на дисках фактически остаются нетронутыми. Я вытащил все четыре привода из NAS и привел их в порядок в моем компе, отсоединившем мои обычные жесткие диски, и я использую Live CD в пробном режиме для запуска Ubuntu. До сих пор я пытался сделать это, используя это руководство: HOWTO: Sharespace Raid 5 Восстановление данных, но я столкнулся с несколькими препятствиями на этом пути, и весь форум закрыт, поэтому я не могу задавать вопросы там.

Первым делом я настроил себя на пользователя root и проверил, чтобы все мои диски были в нужном месте и были распознаны. Использование fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Не совсем зная, что я ищу, но не видя ничего, что вызывало какие-либо красные флаги, все они выглядят довольно целыми и здоровыми для меня, поэтому я продолжаю пытаться собрать рейд из разделов sd*4, которые должны быть теми, с данными, чтобы восстановить рейд.

Я старался:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

но я получил ошибку о двух дисках и их было недостаточно, поэтому я начал просматривать интернет и узнал, что есть команда force, поэтому я использовал ее:

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

и это, казалось, сработало. ДА!... вроде...

vgscan

No volume groups found

Бу... Итак, вернувшись к поиску в интернете, я обнаружил пост, где у кого-то возникла похожая проблема, и ему пришлось воссоздавать свои тома и локальные группы для успешного доступа к своим данным. Используя имена групп томов и локальных групп из руководства, которое я использовал, я создал их, используя новые команды, которые я нашел:

vgcreate vg0 /dev/md0

а также

lvcreate -L5.45T -n lv0 vg0

оба сообщили о создании, и все казалось хорошим в мире. Пока, возвращаясь к своему гиду, я не пытался его смонтировать:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

Очевидно, "авто" не работает, как сказал гид. Покопавшись в сети, я нашел пару типов файловых систем ext3 и ext 4, поэтому я тоже попробовал их:

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

а также

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Как видите, ни одна из них не сработала... Итак, после нескольких часов поисков я пришел к выводу, что мне действительно нужно обратиться за помощью. Если у кого-нибудь есть какие-либо предложения или советы, или даже лучше знает, как сделать эту работу, я был бы очень признателен за понимание. Если бы я сделал что-то не так, это было бы очень полезно знать.

Я подумал, что это также может быть полезно:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

так же как и это:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

Вот как теперь выглядит мой fdisk -l после игры со всем этим:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

Пожалуйста, имейте в виду, что я все еще новичок в этом, поэтому будет очень признателен, если какой-либо совет может прийти с некоторым базовым пониманием того, почему вы делаете свое предложение. Это поможет мне лучше понять, чем я занимаюсь. Спасибо!

2 ответа

Решение

Из предоставленной вами информации я думаю, что вы, вероятно, правы в том, что подавляющее большинство ваших данных остается нетронутыми. На данный момент вы имеете дело с битым массивом RAID. Очевидно, не там, где ты хочешь быть, но и не конец света.

По моему опыту работы с блоками ShareSpace обычно один диск выпадает из массива задолго до того, как RAID на самом деле выходит из строя. Система программного обеспечения Linux Linux обнаруживает первый сбой диска и переключает массив в режим с ухудшенными характеристиками. Это означает, что массив продолжает работать, но он использует только три оставшихся хороших диска. Вещи будут работать нормально в течение некоторого времени, пока второй диск не выпадет из массива. Затем происходит сбой RAID, и у вас есть проблема.

Эти диски выпадают по причине. Обычно это плохие сектора. К счастью, выздоровление очень часто возможно. Но вы должны действовать осторожно, так как любые шаги, которые вы предпримете, уменьшат шансы на восстановление данных.

Если вы хотите оставить все как есть, я бы посоветовал вам сделать резервную копию, прежде чем продолжить. Я знаю, легче сказать, чем сделать с четырьмя дисками по 2 ТБ. Но вам действительно нужно сделать резервную копию только трех из них: /dev/sda, /dev/sdb и /dev/sdc.

Или, если вам нужна помощь, я онлайн-консультант по восстановлению данных. И я выполняю удаленное восстановление данных NAS / RAID через Интернет для клиентов по всему миру. В прошлом я выполнял много успешных удаленных операций восстановления данных WD ShareSpace. Я предлагаю как удаленное восстановление данных, так и помощь в восстановлении данных. Если вам нравится, я был бы рад помочь вам. Свяжитесь со мной через мой сайт. Меня зовут Стивен Харан, и мой сайт http://www.freedatarecovery.us/

Обновление: все мои данные удалось восстановить благодаря Стивену. Я настоятельно рекомендую его сервис, если кому-то нужна помощь с любым видом восстановления данных. http://www.freedata recovery.us/

Другие вопросы по тегам