Рекомендации для замены кластера GFS?

Для Соляриса route команда, удаление, и добавляют, подкоманды имеют следующий синтаксис:

  route [ -fnvq ] cmd destination gateway [metric/netmask]

Таким образом, Вы, вероятно, имеете больше успеха с:

route delete 10.250.0.0 10.250.0.37 -netmask 255.255.255.0

Или удалить его постоянно (как прокомментировано @Alexandre Alves; принятие этого было постоянным маршрутом):

route -p delete 10.250.0.0 10.250.0.37 -netmask 255.255.255.0

(Вы уверены, что Ваша сетевая маска корректна для этого IP-адреса класса A?)

4
20.03.2019, 14:29
2 ответа
[115195] Ceph и GlusterFS - это то место, где в настоящее время развивается кластерная технология FS. Так как я не знаком с GlusterFS, я расскажу о возможностях Ceph.[12126]Ceph масштабируется по горизонтали; чем больше низкоуровневых узлов вы добавляете к нему, тем выше производительность. В отличие от GlusterFS, это основное преимущество для Ceph, так как он перекрывает данные.[12127]Однако, Ceph находится в активной разработке (он готов к производству, за исключением Ceph FS) и требует современного ядра (так как я пишу это, даже не CentOS 6.5 ядро по умолчанию может использовать возможности RBD/CephFS). Чтобы обойти это, я установил ELRepo [115659]kernel-lt[115660].[12128]Чтобы расшифровать его для вас:[12129]Cephs RBD - это кластерная замена SAN; вы можете создавать "виртуальные" устройства, которые находятся в кластере и могут быть смонтированы на серверах. Замечание: Только на одном сервере должен быть смонтирован образ RBD одновременно (вы же не хотите, чтобы несколько ОС смонтировали SATA диск?). Затем вы отформатируете RBD диск, [116051]смонтируете [116052] как обычно, а затем заставите NFS/CIFS сделать его доступным. Если сервер, предоставляющий NFS/CIFS, не выходит из строя, данные не теряются.[12130]Ceph FS - это замена кластерного NAS (хотя и не готовая к производству); она предоставляет возможности блокировки файлов, которые необходимы для кластерной FS, совместно используемой между серверами (например, веб-сервером).[12131]RBD работает в пространстве ядра; поэтому нет никаких хитов производительности предохранителей. Ceph FS также запускается в пространстве ядра, но может работать с FUSE.[12132]Ceph также довольно легко устанавливается:[12133]pip install ceph-deploy[116054] на узле администрирования (вашем рабочем столе/рабочей станции). [12134]Добавьте Inktank RPM repos и [116055]ceph-deploy install node1 node2 ... nodeN[116056] для установки ceph на все узлы.[12135]
3
27.01.2020, 20:56

Считаю, что этот пост является отличным анализом требований для расширенных вариантов использования распределенной файловой системы.

Ищем наиболее совершенную распределенную файловую систему: http://roland.entierement.nu/blog/2012/01/15/looking-for-the-ultimate-distributed-filesystem.html

Пример

  • Конфиденциальность: Тахо безоговорочно побеждает. Ни сетевые снифферы, ни узлы хранения не могут видеть содержимое сохраненных файлов. Они даже не могут узнать свое имя или структуру каталогов. XtreemFS шифрует данные в сети (но они по-прежнему хранятся в виде открытого текста на узлах). Ceph даже не пытается.

Ключевые моменты требований

  1. Доступность и избыточность
  2. Автоматическая репликация и повторная балансировка
  3. Конфиденциальность: по крайней мере, сетевые коммуникации должны быть зашифрованы и аутентифицированы
  4. Производительность: производительность собственного диска может быть недостижимой
  5. Интеграция с системой: мне нужна файловая система, а не система хранения

Среди прочего, это показывает ключевые вещи, которые в настоящее время недостижимы с CephFS и GlusterFS, несмотря на их поддержку в отрасли.

1
27.01.2020, 20:56

Теги

Похожие вопросы