Лучшим способом я могу попытаться ответить на те вопросы, должен сказать, каковы те три на самом деле.
zRAM
zRAM является не чем иным как устройством свопинга в сущности. Управление памятью выставит страницы к устройству свопинга, и zRAM сожмет те данные, выделяя память по мере необходимости.
Zswap
Zswap является сжатой областью подкачки, которая выделяется внутренне ядром и не появляется как устройство свопинга. Это используется frontswap таким же образом, устройство свопинга может использоваться, но более эффективным способом.
Zcache
Zcache является frontend к frontswap и cleancache.
Zcache заменяет zRAM, таким образом, Вы действительно не хотите их обоих бьющихся за ресурсы, хотя существует некоторый разговор о том, как эти два могут работать хорошо вместе, учитывая правильные обстоятельства. На данный момент я не потрудился бы пробовать и оставил бы его до экспертов для понимания этого один.
Некоторое чтение:
Cleancache по сравнению с zram?
https://lwn.net/Articles/454795/
https://www.kernel.org/doc/Documentation/vm/zswap.txt
http://www.zeropoint.com/Support/ZCache/ZCachePro/ZCacheAdvantages.html
Лично, я только что отключил zRAM и включил Zcache во всех моих системах, которые имеют достаточно новое ядро (zRAM, все еще включен на устройствах на базе Android).
Что касается производительности: это - что-то, что необходимо было бы изучить сами. Все отличаются. В теории, тем не менее, Zcache должен быть намного большей памятью, эффективной, чем zRAM, и он работает на двух уровнях (frontswap и cleancache), и он может разбить на страницы к устройству свопинга по мере необходимости (на жестком диске, например). Можно также выбрать, какой алгоритм сжатия использовать, должен это использовать слишком много ЦП (который я не могу предположить, что это будет).
Обновление: Zcache был удален из 3,11 ядер (на данный момент), таким образом, zRAM снова стал единственной опцией в более новых ядрах. https://bugs.launchpad.net/ubuntu / + источник/Linux / + bug/1256503/comments/3 http://git.kernel.org/cgit/linux/kernel/git/stable/linux-stable.git/commit/?id=96256460487387d28b8398033928e06eb9e428f7
Процесс езды от Ext2
- Ext4
аналогичен вашей связанной статье для 3-> 4. Вам необходимо включить функции, использующие TUNE2FS
. Разница между движением от 3-> 4 и 2-> 4 заключается в том, что вам также необходимо включить функцию журнала. Полная команда это:
tune2fs -O extents,uninit_bg,dir_index,has_journal /dev/sdxx
Вы должны FSCK
файловая система после внесения изменений. Как и в случае любой файловой системы или изменения диска, вы должны убедиться, что у вас есть надежная резервная копия перед внесением изменения.
Это регрессия в ядре 4,0, вызывая преобразование фильтров в балансе, чтобы не иметь эффекта; Похоже, все преобразования влияют (не только одно-> RAID1 или RAID1-> RAID5). См. Недавнее Поток списка рассылки , где в настоящее время нет официального исправления. Если вы до исправления вашего ядра, есть простой патч, чтобы применить в качестве временного исправления.
Это известная ошибка в V4.0. Я отправил в патч [1], чтобы вернуть фиксацию Это вызвало регрессию, но она не получила никакого ответа. Ты может применить это или просто вернуть 2F0810880F08 («BTRFS: удалить кусок Attemp распределения при настройке блокировки группы RO "), чтобы исправить свою проблему для Теперь.