Совместно используйте неизменные данные из центрального репозитория в сети

Для кнопки питания Вы могли бы хотеть изучить/etc/acpi/events/power_button. В то время как Вы в нем, Вы могли бы также хотеть посмотреть в/etc/inittab для ctrlaltdel.

2
01.04.2011, 23:28
3 ответа

Ну, NFS использует UDP, и возможно you'ill нужно некоторое дополнительное кодирование, чтобы гарантировать, чтобы никакие файлы не терялись. Мне не нравится он, и это не полностью поддерживается на всех Ose.

Возможно, FTP является Вашим ответом для чтения FAST, таким образом, переносы FAST начиная ни с какого программного обеспечения быстрее, чем FTP, чтобы сделать так.

Но Вы говорите, что у Вас есть общий размер ~500GB. Можно реализовать некоторый VCS с помощью контрольных сумм для знания, какие файлы должны быть обновлены, но он больше кодирует и существует много VCS. Однако я думаю, что FTP является лучшим способом, если Вы хотите мобильность, и возможно доступ для чтения не подразумевает копию всего. Даже этот путь, FTP является самым быстрым.

Так, если Вы хотите VCS, для передачи просто необходимых файлов, просто быстро. Если у Вас есть подобные Unix системы на всех компьютерах, можно установить МЕРЗАВЦА и использование git pull обновить repos. Никто не сможет записать в Ваш repo, и просто необходимые файлы будут обновлены, быстро.

0
27.01.2020, 22:24
  • 1
    D4RIO. что я должен сделать для установки FTP? мне нужен сервер? мне нужно много RAM? –  user3077 01.04.2011, 20:41
  • 2
    Вы нуждаетесь в сервере, видите proftpd.org –  D4RIO 04.04.2011, 21:57
  • 3
    FTP? На какой сравнительные тесты? Для данных произвольного доступа? У меня есть downvoted этот ответ, потому что я думаю, что это не корректно и налагает дополнительный уровень неудобства. –  pjc50 13.06.2011, 15:51

NFS является очевидным ответом.

Если у клиентов нечасто есть пространство для кэшей и обновления данных, Вы могли бы сделать различные вещи, такие как то, чтобы хранить данные в системе управления версиями или зеркальном отражении его с rsync.

1
27.01.2020, 22:24
  • 1
    не Является AFS, который, как предполагают, был лучше, чем NFS? –  Faheem Mitha 01.04.2011, 19:27
  • 2
    данные действительно часто обновляет. действительно ли NFS является самым быстрым способом пойти? существует ли лучший путь? Будет хранить данные в центральном выводе DB к более быстрым чтениям? или было бы лучше попытаться 'кэшироваться' как можно больше на каждой машине, и каждая машина будет использовать свою 'собственную' версию данных? –  user3077 01.04.2011, 19:30
  • 3
    Возможно AFS лучше, но NFS является более простым, более старым и более широко используется. У меня нет сравнительных тестов. <br> База данных: это зависит, что Ваши данные и как они индексируются, и каковы Ваши схемы доступа. –  pjc50 13.06.2011, 15:52

Окончательный способ сделать фестивали чтений состоял бы в том, чтобы скопировать все данные во все клиенты раз и навсегда, но я предполагаю, что Вы не хотите тратить пространство.

Люди, вероятно, получат доступ к тому же файлу несколько раз от данного клиента? Если так, я пошел бы для простого подхода с агрессивным кэшированием. Что-то как WebDAV или FTP-сервер, Fusedav или CurlFTPfs на клиентах и кэширующийся Прокси HTTP на каждом клиенте (Сквид или wwwoffle).

0
27.01.2020, 22:24

Теги

Похожие вопросы