Возможно, Вы имеете некоторые неверные конфигурации в emacs, пробуете это:
M-x ansi-color-for-comint-mode-on
Или добавьте эту строку к Вашему .emacs
:
(add-hook 'shell-mode-hook 'ansi-color-for-comint-mode-on)
Вы видите это для получения дополнительной информации.
Теоретически, можно сделать рейды из «голых приводов» (не разделенных), но я заметил, что ваши диски появляются в виде подразделения GPT, а не MD диски. В общем, я нашел лучший успех / стабильность, разбив мой диск, а затем используя разделы в моих массивах MD.
Я попробую создать таблицу разделов, устанавливая тип раздела в виде AINUX RAID AUTODETECT (FD в FDISK, если я вспомню правильно). Затем воссоздать свой массив.
Кроме того, я обнаружил, что если я не использовал MDADM.conf, я столкнулся с лучшим успехом. Современные версии MD Tools получит всю необходимую информацию из суперблоки вовлеченных перегорок.
Применяются обычные предостережения. Убедитесь, что ваши данные были сделаны резервными копиями. Я не несет ответственности за любые потери данных. Это сработало для меня. Обязательно проверите свой массив, прежде чем привести к нему значимые данные. Убедитесь, что он может пережить перезагрузку и изменения устройства, и т. Д. И т. Д.
Теперь, к чему я сделал.
Я бежал в ту же проблему сегодня. После выполнения некоторых поисков я смог исправить это и получить устойчивое устройство RAID.
На двух дисках я использовал для моего массива, я создал раздел, используя GDISK, прежде чем создал устройство RAID. Я удалил разделы с помощью GDISK, но когда я создал массив, я получил информационное сообщение ниже:
mdadm: partition table exists on /dev/disk/by-id/ata-ST4000VN000-1H4168_Z30254QX but will be lost or meaningless after creating array
каждый раз, когда я видел это сообщение, когда я перезагрузил, будет потерян.
Я полагал, что я бы использовал вышесказанное предложение JIM K и создать раздел RAID Linux на каждом диске. Это сработало, но скорость синхронизации поехала от 145 МБ / с на необработанные диски до 35 МБ / с на разделенных. Я, вероятно, мог бы сыграть с параметрами тюнинга, но почему я должен это сделать?
Я пошел на стремление выяснить, как насунуть таблицу раздела привода.
Исправление ...
Сначала убедитесь, что ваше устройство RAID останавливается, затем Nuke приводы управляют подписью RAID.
mdadm --stop /dev/md<number>
mdadm --zero-superblock /dev/sd<x> (do this for all your raid disks)
Запускайте Blkid и посмотрите, отображаются ли какие-либо устройства RAID. Если они это сделают.
Run:
dd if=/dev/zero of=/dev/sd<x> bs=512 count=1
Это, надеюсь, нанесет столы разбиения. Запустите Blkid снова, чтобы убедиться, что никакие диски не используются для устройства RAID.
В моем случае GPT была подкреплена этикетка LVM на одном диске. Я убрал это, используя Lvremove, Vgremove и, наконец, PvRemove.
Blkid Ran очистит на этот раз.
Однако, когда я снова попытался создать массив, я получил ошибку о существующем устройстве RAID, поэтому я сделал DD еще раз. После этого массив создан без заметок, как я перечисленных выше.
Я воссоздал массив, как это был изначально, я использовал диск / BY-ID вместо SD. Как только массив был воссоздан тестовой раздел, который я создал на массиве, вернулся в неповрежденную.
Сейчас массив выживает перезагрузки и изменения в / dev / sd, когда массив был изначально создан.
Вывод blkid
показывает вам вашу проблему - диски не были чистыми, когда вы создавали их md-устройство, а старая информация вносит путаницу.
Учитывая то, что вы создали их без таблицы разделов, тот факт, что blkid
сообщает PTTYPE="gpt" для sda и sdc, является проблемой.
Если у вас нет (пока) никаких данных на дисках, которые нужно сохранить, вы можете стереть таблицу разделов GPT с помощью 'dd':
$ sudo dd if=/dev/zero of=/dev/sda bs=1M count=10
Это обнуляет первые 10 мегабайт /dev/sda
. Повторите для /dev/sdc
. После этого воссоздайте массив, а затем /dev/md0
должны появиться при загрузке.
Для всех вас, ребята, я нашел обходной путь, который работает для меня .. Может быть, это может вам помочь .. Вот оно:
Raid mount исчезает, потому что система не читает файл mdadm.conf во время загрузки или запуска. Итак, я отредактировал файл /etc/rc.d/rc.local
, включив в него следующие команды:
sleep 10
mdadm --assemble --scan
sleep 10
mount -a
Теперь, каждый раз, когда я перезагружаю систему, она читает этот файл, запускает упомянутые в нем команды и смонтировать raid mount ..
Я столкнулся с этим вопросом, который мне очень помог при устранении неполадок. Но ни один из ответов не смог решить мою проблему.
Возможно, это поможет кому-то, у кого такая же проблема. В моем случае у меня есть два диска NVME на RedHat Linux 7.2.
SELinux имеет проблемы с nvme и не позволяет mdadm работать с ними.
Признаки:
Создайте программный RAID, как описано в вопросе этой ветки. После перезагрузки RAID отсутствует:
/ proc / mdstat
пуст, а / dev / md0
не существует mdadm --assemble --scan
открывает RAID вверх. Решение:
В моем случае я отключил selinux. Я знаю, что это возможно не во всех системах. Но, может быть, вы в правильном направлении от моего поста.
Кажется, это лучший способ отформатировать разделы диска с типом fd (автоопределение рейда Linux), но следите за сообщениями о выравнивании в fdisk! У меня были эти предупреждения, и я решил их с помощью инструмента parted для создания разделов, а затем с помощью fdisk, чтобы настроить их на тип 'fd'. Затем сделайте то же самое, что и вы, и устройство RAID автоматически сформируется во время загрузки. С записью в / etc / fstab он даже будет смонтирован ...
Одно предостережение: использование /etc/mdadm.conf уничтожило мою систему RHEL7 3.10.0-514.6.1.el7.x86_6.
Я знаю, что это старый пост, но я боролся с этой проблемой, и вот мой результат:
Мои диски были "заморожены" -Диски Seagate. Вы можете проверить, есть ли у вас такая же проблема, введя команду:
hdparm -I /dev/sdb
Что показало:
Security:
Master password revision code = 65534
supported
not enabled
not locked
frozen
not expired: security count
supported: enhanced erase
Мне не удалось изменить эту настройку. Диски нормально работали с обычными разделами, но когда я форматировал их как linux raid, они теряли таблицу разделов и были «пустыми» после перезагрузки.
Я создал рейд на разделы, а не на устройства:
mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1
И теперь после перезагрузки они в порядке и все работает как положено.