XFS на LVM на мягком выравнивании полос raid10

Я работаю над созданием сервера резервного копирования, используя кучу дисков емкостью 3 ТБ. Я много думал об этом, и я хотел бы использовать следующую настройку:

Я разделю диски одним разделом, эти разделы будут установлены в raid10 - только два диска для начала.

На них я буду использовать LVM, так как разделов может быть довольно много.

На каждом логическом разделе будет устройство LUKS.

Внутри каждого устройства LUKS будет файловая система xfs.

Я много искал, но не смог найти хорошего объяснения того, как лучше решить проблему чередования, присущую raid10 и xfs. Я знаю, что при размещении непосредственно на устройстве mdraid, mkfs.xfs обнаруживает чередование и выравнивает себя. Как я понимаю, при добавлении LVM это отменяется. В одной из статей я предлагал установить большую (~1M) полосу на устройстве raid, а затем установить согласованный кусок на LVM. Однако при этом, похоже, не учитывается возможность того, что что-то вроде заголовка LUKS может создать дополнительное смещение.

Есть ли какой-нибудь эффективный способ гарантировать выравнивание xfs с устройством raid10?

Не снижает ли сложность, которую я создаю, складывая все это, любой прирост производительности raid10, и должен ли я поэтому просто использовать lvm в raid1 и позволить ему беспокоиться о чередовании?

Я также заранее извиняюсь, я думаю, что я, возможно, периодически смешивал идеи чанков и полос в этом сообщении.

0
23.07.2017, 12:00
1 ответ

Я ездил по работе и только сейчас нашел время ответить. Я решил ответить на свой вопрос на случай, если это пригодится другим позже.

Во-первых, комментарии, утверждающие, что RAID10 Linux md -невозможен на двух устройствах, были неверны. Чтобы было ясно, в Linux md -raid10 не является каким-то стандартным raid1+0. Md -рейд 10, по сути, равнозначен рейду 1, полосатый. Если вы потратите несколько минут на размышления о преимуществах raid1 и о преимуществах raid0, станет ясно, что они не исключают друг друга и могут быть легко объединены. Действительно, Википедия специально рассматривает эту ситуацию :https://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10

.

Это действительно raid10? НЕТ. Он по-прежнему зеркальный и полосатый? да. Появляются ли копии каждого блока более чем на одном устройстве, предлагая настоящее зеркало с некоторыми преимуществами в скорости? Может быть. Комментарии, касающиеся времени поиска при использовании RAID10 на двух дисках, действительно могут преобладать, убивая преимущества в производительности.Подробнее об этом можно узнать здесь:https://blog.a2o.si/2014/09/07/linux-software-raid-why-you-should-always-use-raid-10-instead-of-raid-1/Можно ли масштабировать и расширять массив за счет добавления дисков? да. Что-то не так с использованием двух дисков для массива md -raid 10? По общему мнению, абсолютно нет, но вы можете не увидеть ожидаемого увеличения скорости.

Во-вторых, ZFS. Сегодня ZFS в Linux приняла предложение, которое действительно вводит шифрование. Это потрясающе! Однако я думаю, что ZFS часто рассматривается как решение -всех вопросов и проблем на уровне fs -. Для моих нужд это дает уровень сложности установки, которого я бы предпочел избежать. Он также имеет тенденцию использовать много памяти и может при определенных рабочих нагрузках работать очень медленно. Источники (Некоторые из этих тестов имеют проблемы с методологией, но они дают более широкое общее впечатление ):[Я собирался опубликовать здесь несколько ссылок, но не могу, так как у меня еще нет 10 сообщений --немного погуглив, должно быть найдено несколько соответствующих статей]

Переходя к моему актуальному вопросу :можете ли вы выровнять полосы xfs с чередованием рейда md -? Кажется, что нет. После продолжительного гугления, много возни и тому подобное, кажется, что xfs разумно выравнивается, когда вы создаете fs непосредственно на разделе. Действительно, ext4 тоже это делает. Однако, как только вы наложите lvm и luks, xfs (и ext4 )больше не смогут обнаруживать полосу раздела. Указав размер полосы при создании раздела xfs, вы можете указать ширину полосы, однако вы не можете принудительно выровнять полосу. Некоторые предлагали перемещать lvm, raid и другие заголовки в конец разделов, а затем смещать их на 1 МБ (или на некоторую сумму, кратную размеру полосы ), но нет реальной гарантии, что, поскольку lvm ​​выделяет больше места для том он будет делать это в соответствии с полосой рейда.

Чтобы уточнить, это влияет на чередующиеся топологии md -raid с чередующимися файловыми системами. Просто потому, что я указал два диска в своем вопросе, и комментарии вращались вокруг этого,это приведет к 4 дискам, 8 дискам или 800 дискам. Он также появится в любой настройке рейда, использующей чередование, будь то рейд 0, рейд 5, рейд 6 или рейд 10. В конечном счете, это привлекательность использования таких систем, как zfs или btrfs, которые объединяют разбиение на разделы, управление/объединение устройств и т. д.

Итак, что мне делать? Стабильность и проверенная надежность md -raid, lvm и xfs очень привлекательны. Время поиска, связанное с md -raid raid10, не является привлекательным. Я, скорее всего, буду использовать параметр raid1 в lvm, который хорошо поддерживается выбранной мной ОС Centos. Затем я создам тома lvm, а в них — тома luks. На них я буду строить файловые системы xfs. Эти последние два немного в воздухе. Новая функция шифрования в ext4 привлекательна, и я могу заменить биты luks+xfs на зашифрованные ext4.

1
28.01.2020, 04:43

Теги

Похожие вопросы