find
может взять -o
для "или", таким образом, можно объединить два find
команды как так:
find . \( -type f -o -type d -empty \) -print0 | tar ...
Или, если можно гарантировать, что все файлы могут соответствовать на одной командной строке,
find . \( -type f -o -type d -empty \) -exec tar cvfz files.tgz {} +
Это учебное руководство, названное: Высоконадежный Кластер NFS: Setup Corosync & Pacemaker показывает, как установить NFS активное/активное использование NFS, Corosync, & Pacemaker. Кроме того, Вы могли следовать этому названному руководству: Высоконадежное устройство хранения данных NFS с DRBD и Кардиостимулятор, который показывает установку активного/активного использования DRDB & Pacemaker.
Вы также, вероятно, захотите смотреть на эти другие ссылки для ознакомления с различными технологиями и терминологией.
Этот ServerFault Вопросы и ответы должен также оказаться полезным, кластерная файловая система Linux.
Это - только один из многих путей, которыми NFS сосет.
Нет никакого способа сделать это только с NFS до версии 3. Вы оказываетесь перед необходимостью прибавлять функциональность вручную.
Это, вероятно, означает:
Существуют пакеты там, чтобы сделать все это, но необходимо будет интегрировать их для организации.
Проект HA Linux был настроен много лет назад для реализации некоторых из этих вещей. http://www.linux-ha.org/
Необходимо найти большую часть того, что они уже сделали упакованный в любом популярном распределении, которое Вы используете.
Стоящий замечания... Единственной самой большой причиной отказа системы (безусловно) является административная ошибка, и кластеры HA являются по определению сложной системой и более подверженный администраторской ошибке.
Хорошо вне NFS v4, NFS v4 начинает реализовывать часть масштабируемости, безопасности и функциональности доступности, которую AFS имел в течение 20 лет, он еще каким-либо образом полностью или широко не реализован или даже совершенно совместимый с различными клиентами и серверами, но если Вы используете NFS, запустите с v4 и проверьте то, что уже было реализовано на Вашей платформе.
У Вас не может быть NFS как активно-активного кластера насколько я знаю. Теперь, для Активно-пассивного существуют определенные инструменты, которые помогают Вам достигнуть этого. Я более знаком с Солярисом ОС и Solaris Cluster, которые предоставляют Вам возможность создать высокую доступность доля/доли NFS в зависимости от Вашей цели.
Одной вещью, в которой Вы будете нуждаться, является совместно используемая память, которая может быть перемещена с Сервера к Серверу B и наоборот в случае необходимости. Идеально iSCSI или устройство хранения данных SAN. И IP, связанный с долей NFS.
Кластер будет работать как это. В случае отказа Сервера A, Сервер B включит партнеру IP сервера NFS и возьмет владение совместно используемого диска, смонтирует его и запустит сервер NFS. То же идет в случае, если Сервер B сбои и Сервер A возрос.
Если Вы захотите к этому вручную затем как основные шаги, то Вам будет нужно, контролируя сценарии и сценарии, чтобы включить и отключить сервисы автоматически.
Смотрите здесь для Redhat
Я настроил избыточную пару файловых серверов NFS в «двойной первичной» активной / активной конфигурации с использованием балансировщика нагрузки, CentOS, NFS, DRBD (репликация), GFS2 (кластерная файловая система) и Partemaker (управление кластером).
Вот руководство для этой реализации на Rackspace, но оно было бы похоже в любой другой среде.
Howto Setup Двойной первичный DRBD на Centos 6: GFS2 и кардиостимулятор .
Это ультра приятный и простой, как, пробовал и отлично работает.
https://www.howtoforge.com/high_availability_nfs_drbd_heartbeat
Лично я предпочитаю LV, потому что комбинируйте HA с балансом нагрузки, но Я пробовал с NFS + GFS2 + DRBD и работает очень плохо. Может быть, мне нужен как, но я не могу найти ни одного о LVS + NFS HA
Продукт Red Hat RHSS / RHGS (Red Hat Storage / Gluster Server) отлично справляется с этой задачей, используя клиент GlusterFS на основе FUSE для проксирования подключений NFS к работающий внутренний сервер, при этом поддерживая внутреннее зеркальное хранилище с несколькими серверными узлами, все прозрачное для клиентской стороны. Это очень хорошее решение, которое подойдет вам. Вы можете либо установить решение EPEL / Extra RPM, либо купить его в Red Hat. На стороне клиента вы просто используете FUSE / glusterfs или NFS в качестве типа монтирования в fstab. Никаких проблем с грязным камнем / ограждением.