Похоже, что проблемой был сценарий, был назван от Ruby с
exec(script)
и должностное лицо всегда действует в контексте/bin/sh, строки хижины в названном сценарии, по-видимому, несмотря на это.
Изменение на
exec('/bin/bash', '-c', script)
работы.
В поисках Вашей ошибки я наткнулся на запись в блоге под заголовком: Ошибка создания zfs-пулов с помощью дисков, которые принадлежали массиву md raid , которая показала такую же ошибку.
$ zpool создают -f зеркало танка /dev/disk/by-id/xxx /dev/disk/by-id/yyy ядро не смогло пересканировать таблицу разделов: 16 не может пометить sdb: попробуйте использовать parted(8), а затем предоставьте специальный срез
В статье говорилось, что проблема возникла из-за того, что устройство было добавлено в неиспользуемый MDADM-массив.
Даже если старый mdadm-массив больше не монтировался (т.к. отсутствовало более одного диска > и это был рейд5), он все равно добавлялся в md0:
$ cat /proc/mdstat Personalities : [линейный] [raid0] [raid1] [raid10] [raid6] > [raid5] [raid4] [мультипуть] md0 : неактивный sdd1[4](S) sdb1[1](S) 3907025072 блоки супер 1,2 неиспользуемые устройства:
Исправление этой проблемы заключается в следующем:
$ mdadm --stop /dev/md0
mdadm: stopped /dev/md0
$ zpool create -f tank mirror /dev/disk/by-id/xxx /dev/disk/by-id/yyy
$ zpool status
pool: tank
state: ONLINE
scan: none requested
[...]
имел ту же проблему, пытаясь запустить для внешнего диска на / dev / sdb
$ sudo zpool create pool sdb -f
the kernel failed to rescan the partition table: 16
cannot label 'sdb': try using parted(8) and then provide a specific slice: -1
, проблема была на диске все еще установлено. После запуска
$ sudo umount /dev/sdb
все работало нормально.