mdadm с накладыванием lvm - удаляют жесткий диск

Одно решение, которое я вижу, состоит в том, чтобы дать каждому пользователю их собственную группу (уже становящийся стандартным на различных полях Linux), и устанавливающий значение по умолчанию umask для системы к 027 (отображается на g-w, o-rwx) в /etc/profile или /etc/login.defs (для PAM). Наконец, измените "частные" каталоги пользователей на 0700 (u=rwx, пойдите =), и их корневой каталог к 0750 (u=rwx, g=rx, o =).

Это все еще позволит Вашим пользователям управлять его полномочиями, но значение по умолчанию будет препятствовать тому, чтобы другие пользователи видели содержание.

5
22.09.2013, 00:19
3 ответа

С программным обеспечением RAID Вы не должны использовать целые диски.

Если у Вас есть 3x2 ТБ и 3x1 ТБ, и планирующий заменить 1 ТБ 2 ТБ в будущем, Вы могли использовать участников на 1 ТБ. Таким образом, это - RAID5 (или если Вы предпочитаете RAID6), более чем 6x1 ТБ и более чем 3x1 ТБ RAID5. Таким образом, 2 ТБ будут совместно использованы обоими НАБЕГАМИ.

Когда Вы выгоните 1 ТБ и добавляете 2 ТБ вместо этого, затем один RAID будет видеть, что замене и другому добавят остающуюся 1TB как нового участника.

4
27.01.2020, 20:36
  • 1
    Таким образом, как Вы говорите, создают разделы 1 ТБ размером на дисках на 2 ТБ и выполняют Raid5 по разделам вместо целого диска? Звуки хорошо, что Вы делаете с теми двумя параллельными рабочими Массивами RAID при свопинге последнего диска на 1 ТБ для на 2 ТБ? Действительно ли возможно объединить те два массива в один? –  dersimn 22.09.2013, 00:50
  • 2
    LVM объединяет их в одного. Действительно не имеет значения, если это - один или два НАБЕГА. Я на самом деле использую 250G участники вместо 1 ТБ - тот способ, которым можно распределить некоторые операции лучше (RAID растут/проверяют/повторно синхронизируют, занимает очень много времени с огромными НАБЕГАМИ). –  frostschutz 22.09.2013, 00:52
  • 3
    быть очень осторожным, как Вы настраиваете это - если Ваш raid5 включает два раздела в тот же диск затем, если/когда тот диск умирает, Ваш массив raid5, умирает с ним. это могло работать, если бы у Вас было 3 массива RAID-5 (каждый составленный из разделов на 3x1 ТБ) чередуемый вместе. производительность была бы довольно плоха, тем не менее, из-за конкуренции головки диска между массивами R5. в целом, не рекомендуемый. –  cas 22.09.2013, 05:40
  • 4
    Да, быть осторожным. Это не то, что я предлагаю вообще, если Вы читаете там чтение его неправильно. Из каждого набега mdadm каждый участник должен быть на различном диске, естественно. Что касается конкуренции головки диска, у Вас есть та же проблема в любой установке, которая использует разделы (весьма распространено иметь несколько md по различным причинам), и я нашел, что это не имеет большую часть значения вообще, честно. ymmv. –  frostschutz 22.09.2013, 06:01
  • 5
    я не считал его там. это точно, почему я чувствовал, что было необходимо указать на риск. это - достаточно большой риск, что это заслуживает предупреждения. –  cas 22.09.2013, 06:07

Если Вы находитесь все еще в стадии проектирования (т.е. Вы уже не посвящаете себя mdadm и/или lvm), затем я recommened, что Вы серьезно рассматриваете использование современной файловой системы как Btrfs или ZFS.

btrfs встроен к магистрали ядро Linux, и zfs доступен с zfsonlinux веб-сайта как легко устанавливаемые модули ядра или dkms пакеты для большинства дистрибутивов Linux. Существует также PPA Ubuntu для zfsonlinux.

И ZFS и btrfs имеют превосходные, простые в использовании инструменты для руководящих дисков и групп дисков. Они также реализуют обнаружение ошибок и исправление (в значительной степени важный с большими современными дисками, поскольку ошибки статистически почти гарантируются), подобъемы, создание снимков (включая доступ к и/или откат предыдущих версий), и у них обоих есть очень полезный основанный на снимке метод отправки полного резервного копирования, или инкрементное резервное копирование в другую машину (zfs отправляют/получают, и btrfs отправляют/получают). У обоих есть много других особенностей и преимуществ, слишком долго для списка здесь.

Еще одно большое преимущество, которое ZFS и btrfs имеют по lvm, состоит в том, что lvm логические тома имеют фиксированный размер (отчасти как раздел виртуального диска), и необходимо сделать специальные шаги, если необходимо вырастить или уменьшить размер lv (например, если Вы сделаете ошибку и выделите слишком много места к/usr и недостаточно к / var, то у Вас будет большая работа перед Вами для фиксации этого). С ZFS и btrfs, подобъем больше похож на выделение мягкой квоты (с дополнительным резервированием) от общего пространства, и изменение выделения является тривиальным процессом, который не требует никакой файловой системы 'манипулирование' (резервные/восстановления/перемещения файлы вокруг). На самом деле Вы не должны даже устанавливать квоту на подобъем, если Вы не захотите к - то все подобъемы счастливо совместно используют общий пул свободного места.

ZFS имеет понятие пулов, которые составлены из виртуальных устройств (vdevs), которые, в свою очередь, составлены из физических устройств (т.е. диски). Используя ZFS, Ваши диски могли быть настроены как единственный пул, содержащий два vdevs, один с массивом RAID-5, составленным из дисков на 3x2 ТБ и одного составленного из массива RAID-5 дисков на 3x1 ТБ. vdevs чередуются для составления пула. (BTW, raid5 и raid6 ZFS не на самом деле raid5 или raid6, он просто работает очень похоже. это назвало набег-z),

Одна из хороших вещей о ZFS - то, что можно легко заменить диски в vdev и когда Вы заменяете все диски в vdev с более крупными дисками, затем дополнительное пространство автоматически сделано доступным для устройства хранения данных. например, если бы Вы заменяете один или два из дисков на 3x1 ТБ с дисками на 2 ТБ, Вы не получили бы дополнительного пространства, но как только Вы заменили третий диск, Вы немедленно получите дополнительное пространство.

Можно также добавить другой vdev (т.е. составленный из одного или нескольких дисков) в любое время. например, Вы могли добавить пару дисков на 4 ТБ или на 3 ТБ. Можно заменить диски в vdev, но Вы не можете удалить vdev из пула - если необходимо сделать это, единственный путь состоит в том, чтобы скопировать, уничтожить пул и создать новый пул с нуля.

Btrfs недавно стал экспериментальным, raid-5/6 поддерживают, и поддерживал raid-0/1/10 в течение нескольких лет. Это концептуально очень отличается к zfs, и существуют некоторые вещи, это добивается большего успеха, чем zfs (например, "изменяющие баланс" данные через диски, когда Вы добавляете или изменяете диски в btrfs файловой системе), но в целом это имеет меньше функций, чем zfs. Большое преимущество состоит в том, что это находится в ядре магистрали, и таким образом стандарт - гарантировал, что был доступен в любой современной системе Linux.

btrfs имеет определенную поддержку использования дисков различных размеров, включенных при помощи -d single опция mkfs.btrfs. Посмотрите Используя Btrfs с Несколькими Устройствами для деталей.

3
27.01.2020, 20:36
  • 1
    я ожидал волшебное решение здесь, но так как Вы говорите, что ZFS требует, чтобы все три диска были заменены, как это помогает? –  frostschutz 22.09.2013, 05:46
  • 2
    там не является никаким волшебным решением, существуют только компромиссы, между которыми можно выбрать. гибкость, коррекция ошибок, создание снимков и т.д. в zfs или btrfs. или улучшенном риске или уменьшенной производительности при использовании разделов как Вы предположили (который не является плохим решением, это просто имеет некоторый потенциал, выпускают Вас, должен знать) –  cas 22.09.2013, 05:50
  • 3
    Несомненно, но вопрос был конкретно о том, как не потратить впустую остающегося 1 ТБ при замене только одного диска, или наконец это - то, что я понял. У меня нет опыта с ZFS самого (я предпочитаю старомодную mdadm-lvm-filesystem структуру), но способность чередовать через все диски (тот же способ, которым я сделал бы это со своей разделенной установкой mdadm), что-то, что я ожидал бы там в наименьшее количество..., о, хорошо. –  frostschutz 22.09.2013, 05:56
  • 4
    вопрос был также о... Я просто оцениваю, в котором пути я должен настроить свои жесткие диски для моего сервера дома... - знающий о других опциях, полезно при решении, что сделать. btw, zfs может чередовать через несколько дисков, это было бы довольно бесполезно в своем основном задании, если это не могло. –  cas 22.09.2013, 06:00
  • 5
    ZFS не хорошо поддерживается на Linux, и btrfs еще не является производством, готовым. –  psusi 22.09.2013, 06:55

При замене 1 диска емкостью добавьте новый диск на 2 ТБ к md0, который увеличит его способность на 2 ТБ. Преобразуйте md1 от raid5 до raid10, который уменьшит его способность на 1 ТБ, таким образом принося Вам полную пользу дополнительного 1 ТБ на замещающем диске.

Как альтернатива, Вы могли преобразовать md1 в raid0, затем добавить md1 к md0. Это даст Вам на 1 ТБ больше применимого пространства с немного более высоким риском отказа.

1
27.01.2020, 20:36
  • 1
    Это работало бы (если Вы заботитесь pvmove прежде, чем уменьшить что-либо), но когда Вы заменяете 2-й диск, остающийся диск на 1 ТБ не имеет ничего больше для соединения с, таким образом, необходимо удалить или заменить два остающихся диска вместе, когда время настает... –  frostschutz 22.09.2013, 05:51
  • 2
    @frostschutz, да, Вы имеете к pvmove все логические тома прочь md1, затем уничтожьте его и затем воссоздайте его как raid10. –  psusi 22.09.2013, 06:53

Теги

Похожие вопросы