Как ведет себя монтирование рекурсивного моментального снимка zfs в каталоге монтирования по умолчанию.zfs/snapshot?

Поскольку qemu — это долго работающая программа, и она не возвращается к подсказке, проще открыть другой терминал и проверить, :какой IP-ПОРТ использует qemu. Итак, команда

$ netstat -tulpn | grep qemu-system | awk '{print $4}'
127.0.0.1:5900

Спасибо за предложения.

0
04.03.2021, 21:11
1 ответ

Моментальные снимки можно делать рекурсивно. Но монтирование моментального снимка не приведет к монтированию устаревших моментальных снимков. Вы можете использовать сценарий для рекурсивного монтирования моментальных снимков в определенный каталог, а затем выполнять резервное копирование оттуда.

Однако, что касается Docker, при использовании этого метода некоторые данные будут исключены. В частности, наборы данных с legacyточкой монтирования (и точкой монтирования, установленной наnone). ZFS не будет автоматически монтировать их при загрузке, и, поскольку точка монтирования не содержит путь к файловой системе (, в отличие от /dataв вашем примере ), неясно, куда монтировать их снимки при выполнении резервного копирования.

Из этого ответа я понял, что наборы данных Docker lagacyсодержат образы для ваших контейнеров. Так что вам, скорее всего, не понадобится делать резервную копию этих данных.

Глядя на ваш вывод из zfs list, кажется, что вы не создали специальный набор данных для Docker. Вот почему эти устаревшие наборы данных Docker хранятся в родительском наборе данных (, который вы назвали data). Я лично предпочитаю создавать выделенный набор данных Docker (, который также может быть в data), чтобы эти устаревшие общие ресурсы были вложены в набор данных Docker, вот так:

zfs list -r data
NAME                                                                                    USED  AVAIL     REFER  MOUNTPOINT
data                                                                                   3.57G  2.63T      200K  /mnt/data
data/jip                                                                               2.27G  2.63T      208K  /mnt/data/jip
data/jip/docker                                                                         108M  2.63T     1000K  /mnt/data/jip/docker
data/jip/docker/4142fdca5ac3e7dbd12c0518e3377eb47a2c1a8599f564e07e08e5b25944146c        396K  2.63T      388K  legacy
data/jip/docker/43023791ce39ba890e8de50809cacda45a884b5990e4923fd6563eaed58e6b42        168K  2.63T      396K  legacy
data/jip/docker/98a9127ff2dd5fd2d0ea52f5e6343e85a8d2a80aa4cd2ffcf1c92e9b2d2b371f        101M  2.63T      102M  legacy
data/jip/docker/b68a666a8602cdbc3639b010558a0aa5f92f0b765a6efc15c4f7f30651ba2860       1.05M  2.63T      102M  legacy
data/jip/docker/b68a666a8602cdbc3639b010558a0aa5f92f0b765a6efc15c4f7f30651ba2860-init   216K  2.63T      102M  legacy
data/jip/home                                                                          2.16G  2.63T     36.9M  /mnt/data/jip/home
1
19.06.2021, 11:37

Теги

Похожие вопросы