Помогите восстановить массив raid5

На сайте есть страница, на которой упоминается процедура конвертации файлов формата Encase в формат RAW (.dd). Как только вы сможете преобразовать файлы в .dd, вы можете просто смонтировать их с помощью утилиты mount:

mount filename.dd /mnt/temp/

0
16.03.2018, 03:01
2 ответа

Вы сказали:

About 60% into the rebuild one of the other drives in the array drops out

Это известный риск при использовании RAID -5, и это одна из причин, по которой RAID -5 не считается безопасным для использования в наши дни. Если два диска выходят из строя одновременно в массиве RAID -5, данные невозможно восстановить. К сожалению, перестроение массива, в котором один диск вышел из строя, может вызвать значительную нагрузку на другие диски, что значительно увеличивает вероятность отказа другого диска во время перестроения. Чем дольше восстановление (, т. е. чем больше диски и чем больше они заняты другой, реальной работой ), тем больше вероятность того, что это произойдет.

Это особенно верно, если RAID-массив активно использовался в течение нескольких лет, а срок службы дисков приближается к ожидаемому концу -или -. Или если все диски в массиве произведены из одного производственного цикла и имеют схожие дефекты (, либо «плохую партию» ), либо схожий ожидаемый срок службы.

Из-за того, что данные распределяются по дискам в массиве из 4 -дисков RAID -5 (, т. е. 3 диска для чередования данных, 1 диск для контроля четности ), при сбое двух дисков по крайней мере одна треть каждого файла будет отсутствовать . Это похоже на то, что происходит с чередованием RAID -0, если один или несколько дисков выходят из строя -части файлов, распределенных на неисправный диск (s ), исчезают.

RAID -6 немного улучшает это, позволяя двум дискам выйти из строя до того, как все данные будут потеряны, но возникает та же проблема, если три диска выходят из строя одновременно.

RAID -1 безопаснее, потому что, если один диск выйдет из строя, вы сможете получить данные с другого диска (или других дисков, если выполните зеркалирование более чем на 1 диск ). Если все диски в зеркальном наборе выходят из строя, вы теряете все.

RAID -10 похож на RAID -1. Он по-прежнему уязвим, если все диски в зеркальном наборе выходят из строя одновременно.RAID -10 может выдержать отказ двух -дисков, но ТОЛЬКО , если отказавшие диски не находятся в одном зеркальном наборе. например, если у вас есть диски a,b,c,d с двумя зеркальными парами (a+b и c+d ), то любая комбинация двух дисков из разных пар (, т. е. a+c, a+d, b+c или b+d )могут завершиться ошибкой без потери ваших данных, но в случае ошибки a+b или c+d ваши данные будут потеряны.

Как при использовании RAID -1, так и при использовании RAID -10 риск можно снизить за счет увеличения количества дисков в каждом зеркальном наборе. например. RAID из 6 дисков -10 можно настроить как a+b, c+d, e+f (три зеркальные пары, общая емкость = количество дисков / 2 )или a+b+c и d+ e+f (две зеркальные тройки, общая емкость = количество дисков / 3)

Таким образом, все уровни RAID имеют режимы отказа, которые могут привести к катастрофической потере данных.

Главное, что нужно запомнить из всего этого:

RAID НЕ ЗАМЕНЯЕТ ОБЫЧНОЕ РЕЗЕРВНОЕ КОПИРОВАНИЕ

0
28.01.2020, 04:28

Итак, я попробовал кое-что. Сначала я остановил рейд после перезагрузки машины сегодня утром:

jake@ubuntu-box:~$ sudo mdadm -S /dev/md1
mdadm: stopped /dev/md1

Затем я пытаюсь выполнить сборку, используя uuid для массива:

jake@ubuntu-box:~$ sudo mdadm --assemble /dev/md1 --
uuid=e7ab07c3:b9ffa9ae:377e3cd3:a8ece374
mdadm: /dev/md1 assembled from 1 drive - not enough to start the array.

Хорошо, этого я и ожидал. Итак, давайте попробуем заставить его:

jake@ubuntu-box:~$ sudo mdadm --assemble /dev/md1 --force --
uuid=e7ab07c3:b9ffa9ae:377e3cd3:a8ece374
mdadm: forcing event count in /dev/sdb2(1) from 238868 upto 239374
mdadm: forcing event count in /dev/sda2(0) from 20364 upto 239374
mdadm: /dev/md1 assembled from 3 drives - not enough to start the array.

Хм... это должно было сработать. Попробуем пересобрать вручную, вызвав отдельные разделы для рейда:

jake@ubuntu-box:~$ sudo mdadm --assemble /dev/md1 /dev/sda2 /dev/sdb2 
/dev/sdc2 /dev/sdd2 --force
mdadm: /dev/md1 has been started with 3 drives (out of 4).

БИНГО! Похоже, это началось с 3 из 4 дисков. Достаточно хорошо, это означает, что я могу получить доступ к своим данным!Давайте проверим детали просто для смеха:

jake@ubuntu-box:~$ sudo mdadm --detail /dev/md1/dev/md1:
        Version : 0.90
  Creation Time : Thu Aug 18 14:30:36 2011
     Raid Level : raid5
     Array Size : 2924400000 (2788.93 GiB 2994.59 GB)
  Used Dev Size : 974800000 (929.64 GiB 998.20 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Tue Mar 13 14:00:33 2018
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : e7ab07c3:b9ffa9ae:377e3cd3:a8ece374
         Events : 0.239374

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
       2       8       34        2      active sync   /dev/sdc2
       6       0        0        6      removed

Пока мы разговариваем, я копирую данные. Таким образом, нет, данные не были безвозвратными -, просто нужно было знать правильные команды, чтобы принудительно собрать рейд.

0
28.01.2020, 04:28

Теги

Похожие вопросы