Повреждена файловая система после добавления диска в mdadm raid 6

Entonces, logré obtener una recuperación completa, gracias a este enlace

Lo que hice es lo siguiente:

  1. Reemplacé el disco defectuoso y reinicié el servidor.
  2. Luego, formateé el nuevo disco como un tipo de partición RAID Linux -.

    # mdadm --examine /dev/sda1 /dev/sdb1 /dev/sdd1 /dev/sde1
    

Luego, según el enlace anterior, (re )creé la matriz, según la información proporcionada por el --comando de examen.

# mdadm --create /dev/md0 --level=5 --raid-devices=4 --chunk=512 --name=server:0 /dev/sda1 /dev/sdb1 missing /dev/sde1 --assume-clean

Como se indica en este enlace, ¡el --supuesto -limpio hizo el truco! Evitó el estado "repuesto" de /dev/sde1 y lo usó como parte activa de la nueva matriz.

La clave al volver a -crear la matriz a partir de dispositivos "existentes" podría ser no estropear el parámetro de fragmento, a menos que pierda los datos.

  1. Luego agregué el nuevo dispositivo a esta nueva matriz:

    # mdadm --add /dev/md0 /dev/sde1
    

El servidor comenzó a reconstruirse (tomó 6 horas para 10 Tb ), y después de esto, forcé una verificación de integridad en toda la matriz (que también tomó 6 horas)

¡Recuperé todo y estoy bastante aliviada!

3
31.05.2019, 10:05
2 ответа

Обнаружил проблему во время игры с btrfs, и обновление vmware , оказалось:

Жесткий диск 0 и жесткий диск 4, физические жесткие диски, которые я добавил к своему гостевому компьютеру Arch Linux vmware, были одним и тем же.

Неудивительно, что он ломался.

Ответ Frostschutz, возможно, все еще имел значение, так как моя версия ядра была в затронутых версиях.

0
27.01.2020, 21:17

Если диск сам по себе неплох, то, скорее всего, это ошибка ядра.

Например, недавно произошла ошибка, связанная с повреждением данных, связанная с повторной синхронизацией RAID6, и в зависимости от того, какую версию ядра вы используете, вы можете быть затронуты:

ОШИБКА :Восстановление RAID6 прервано фиксацией 4f4fd7c5798bbdd5a03a60f6269cf1177fbd11ef

В противном случае также проверьте несоответствия RAID (mdadm --action=check /dev/mdX, watch head /sys/block/md*/md/mismatch_cnt), которые могут существовать в оставшейся четности RAID6.

Также проверьте все другие ракурсы, memtest, smartctl и т. д., а также dmesg на наличие сообщений об ошибках, которые могли появиться во время повторной синхронизации.

4
27.01.2020, 21:17

Теги

Похожие вопросы