/dev/md127 отказывается останавливаться. Никакие открытые файлы

Проверьте если INTERACTIVE_COMMENTS опция установлена.

Согласно этой странице, "[...] в интерактивных оболочках с INTERACTIVE_COMMENTS набор опции, [...] # причины, что слово и все следующие символы до a newline быть проигнорированным."


Согласно комментариям были добавлены позже, set -k делает точно то же самое.

7
28.10.2012, 20:08
5 ответов

Можно ли вставить вывод следующих команд?

mdadm -D /dev/md127

mdadm -E /dev/sdc

cat /proc/mdstat

Обратите внимание на то, что возможно "переименовать" набег. Переименование в этом случае в зависимости от версии суперблока, которую использует Ваш набег.

Для переименования суперблока 0,90 набега, необходимо использовать следующую команду: mdadm -A /dev/md0 -U super-minor -u <uuid of the array>

Переименовать суперблок 1. X набегов необходимо использовать следующую команду: mdadm -A /dev/md0 -U name -N <new name> -u <uuid of the array>

Поскольку я не понял это, можно ли объяснить, почему Вы хотите переименовать его? Имя узла md127 собрано Вашими initramfs сценариями, поскольку они начинают с md127. Насколько я знаю, что можно изменить предпочтительное незначительное число, но initramfs сценарии будут независимо от незначительного числа запускаться со сборки узла 127.

2
27.01.2020, 20:17

Если все, что Вы пытаетесь сделать, изменить номер устройства, добавьте массив к своему файлу конфигурации с номером устройства нашего выбора с помощью следующей команды:

    echo "ARRAY /dev/md0 level=raid1 num-devices=2 UUID=$(blkid -s UUID -o value /dev/md127) devices=/dev/sdb,/dev/sdc" >> /etc/mdadm.conf

После того как Вы поместили свой набег в/etc/mdadm.conf, просто перезагрузка и набег должны автоматически повторно собрать использование номера устройства, который Вы указали. Это обладает дополнительным преимуществом обеспечения, что Ваш набег будет создан с тем же именем устройства при каждой начальной загрузке.

4
27.01.2020, 20:17

Если вы используете LVM поверх mdadm, иногда LVM не будет удалять устройства Device Mapper при деактивации группы томов. Вы можете удалить его вручную.

  1. Убедитесь, что в выводе sudo vgdisplayничего нет.
  2. См. /dev/mapper/. Помимо файла control, должно быть устройство Device Mapper, названное в честь вашей группы томов, например. VolGroupArray-name.
  3. Запустите sudo dmsetup remove VolGroupArray-name(, заменив VolGroupArray-nameименем устройства Device Mapper ).
  4. Теперь вы сможете запуститьsudo mdadm --stop /dev/md0(или любое другое имя mdadmустройства ).
3
27.01.2020, 20:17

У меня была такая проблема. У меня было два зеркала SATA в CentOS 6.5, и я обновил их до 7.5. Мой контроллер 3Ware больше не поддерживался.

ПРИМЕЧАНИЕ. :У меня был RAID-контроллер 3Ware, но я использовал mdadm для создания программного RAID на 6.5, поэтому у меня никогда не было аппаратного RAID.

Пока я покупал в компьютерном магазине новый контроллер PCI SATA, я решил добавить еще один диск и перейти к настройке RAID 5. Я не мог сделать mkfs на томе; он сказал, что другой процесс использовал его. Я не мог остановить его или удалить его.

Перепробовав все, что я мог придумать, я получил это сообщение:

mdadm --fail /dev/sda
mdadm: /dev/sda does not appear to be an md device
[root@TomNAS1 ~]# mdadm /dev/md5
/dev/md5: 3725.78GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail.
/dev/md5: device 0 in 2 device undetected raid1 /dev/md/2_0. Use mdadm --examine for more detail.

Я так и сделал:

mdadm --examine /dev/md5
/dev/md5:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ffd28566:a7b7ad42:b26b218f:452df0ca
  Creation Time : Wed Dec  8 12:52:37 2010
     Raid Level : raid1
  Used Dev Size : 1951311040 (1860.92 GiB 1998.14 GB)
     Array Size : 1951311040 (1860.92 GiB 1998.14 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2

    Update Time : Mon Jul  2 12:39:31 2012
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 59b0bc94 - correct
         Events : 1111864


      Number   Major   Minor   RaidDevice State
this     0       8       19        0      active sync

   0     0       8       19        0      active sync
   1     1       8        3        1      active sync

Обратите внимание на уровень рейда RAID 1. (У меня все еще были суперблоки со старой информацией о рейде ), но я по-прежнему не мог их удалить.

Наконец-то я это сделал:

mdadm --stop --scan
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>

Использование опции --scanвместо /dev/md5наконец помогло. Затем я смог удалить его, обнулить суперблоки и воссоздать

.
[root@TomNAS1 ~]# mdadm --remove /dev/md5
mdadm: error opening /dev/md5: No such file or directory
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sda
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdb
[root@TomNAS1 ~]# mdadm --zero-superblock /dev/sdd
[root@TomNAS1 ~]# mdadm -E /dev/md5
mdadm: cannot open /dev/md5: No such file or directory

[root@TomNAS1 ~]# lsblk
NAME               MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                  8:0    0   1.8T  0 disk 
└─sda1               8:1    0   1.8T  0 part 
sdb                  8:16   0   1.8T  0 disk 
└─sdb1               8:17   0   1.8T  0 part 
sdc                  8:32   0 298.1G  0 disk 
├─sdc1               8:33   0     1G  0 part /boot
└─sdc2               8:34   0   297G  0 part 
  ├─centos-root    253:0    0   283G  0 lvm  /
  ├─centos-swap    253:1    0     4G  0 lvm  [SWAP]
  └─centos-dev_shm 253:2    0    10G  0 lvm  
sdd                  8:48   0   1.8T  0 disk 
└─sdd1               8:49   0   1.8T  0 part 
sr0                 11:0    1  1024M  0 rom  


[root@TomNAS1 ~]# mdadm --create /dev/md5 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdd1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@TomNAS1 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md5 : active raid5 sdd1[3] sdb1[1] sda1[0]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (475180/1953381376) finish=684.9min speed=47519K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>



[root@TomNAS1 ~]# mkfs.ext4 /dev/md5
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
244178944 inodes, 976690688 blocks
48834534 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=3124756480
29807 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done       

[root@TomNAS1 ~]# 
0
27.01.2020, 20:17

Думаю, об этом говорилось выше, но на всякий случай :Если у вас есть активный логический том lvm, использующий mdX, который вы пытаетесь удалить, mdadm откажется делать это до тех пор, пока вы не удалите логический том, использующий этот диск, или, по крайней мере, не освободите диск md из lvm. Как только вы удалите логический том, mdadm с радостью остановит рейд.

0
27.01.2020, 20:17

Теги

Похожие вопросы