Медленная скорость записи(<2 Мб/с) на незашифрованные и зашифрованные LUKS файловые системы ext4 с помощью mdadm Software RAID1 Debian 8 Dell PowerEdge T330 Server

Вы должны использовать его в перенаправлениях :

Bash обрабатывает несколько имен файлов специально, когда они используются в перенаправления, как описано в следующей таблице:

...

/ dev / tcp / host / port

Если хост - допустимое имя хоста или Интернет-адрес, а порт - это целочисленный порт номер или имя службы, Bash пытается открыть соответствующий сокет TCP .

Итак:

printf "GET / HTTP/1.1\n\n" > /dev/tcp/74.125.225.19/80

- правильный способ его использования.

Когда вы использовали /dev/tcp/74.125.225.19/80 в канале, bash попытался запустить команду с именем /dev/tcp/74.125.225.19 / 80 и сообщил об ошибке, потому что этот файл не существует.


Возможность обрабатывать / dev / tcp / host / port и / dev / udp / host / port в перенаправлении была добавлена ​​в bash в версии 2.04.

Вам необходимо скомпилировать bash с опцией - enable-net-redirections .

2
19.05.2018, 03:12
2 ответа

Cuando le pides a dd bs=16Ky oflag=direct, estás pidiendo muchas escrituras pequeñas, esto es en lo que los HDD son malos y en lo que los SSD son buenos.

Puede usar LVMCache para obtener el beneficio de ambos (hasta el tamaño de SSD)

Si usa bs=16Mo no oflag, las escrituras se dividen/combinan/almacenan en caché en la RAM y se escriben en un tamaño óptimo.

¿Por qué dd utiliza una escritura directa más lenta en el disco que en un archivo?

por ejemplo;

> dd if=/dev/zero of=test.bin bs=16k count=1000 oflag=direct
1000+0 records in
1000+0 records out
16384000 bytes (16 MB, 16 MiB) copied, 3.19453 s, 5.1 MB/s

> dd if=/dev/zero of=test.bin bs=16M count=1 oflag=direct
1+0 records in
1+0 records out
16777216 bytes (17 MB, 16 MiB) copied, 0.291366 s, 57.6 MB/s

> dd if=/dev/zero of=test.bin bs=16k count=1000
1000+0 records in
1000+0 records out
16384000 bytes (16 MB, 16 MiB) copied, 0.0815558 s, 201 MB/s

> uname -r
4.14.41-130
0
27.01.2020, 22:18

Uso depv(página de manual)utilidad como tal:

pv --average-rate < /dev/urandom > /mdX-MountPoint/SomeFileName

puede resultar ser un método más efectivo para medir la velocidad que sudd(página de manual).

Edité el archivo de entrada para que fueran datos aleatorios, lo cual es mejor que los ceros estáticos.


El problema condd(página de manual)es que debe ajustar el tamaño del bloque.

Mientras que conpv(la página del manual)ese no es el caso, ya que establece la velocidad máxima para el mejor rendimiento.

0
27.01.2020, 22:18

Теги

Похожие вопросы