Алгоритмы сжатия имеют различную степень сжатия в зависимости от свойств данных, которые они сжимают. Например:
$ dd if=/dev/zero of=test.img bs=1m count=1024
$ compress -c test.img > test.img.Z
$ gzip -c test.img > test.img.gz
$ wc -c test.img test.img.gz test.img.Z
1073741824 test.img
4685486 test.img.gz
84781 test.img.Z
1078512091 total
Файл, состоящий в основном из повторяющихся нулей, вероятно, является наилучшей ситуацией для этого алгоритма. Поскольку вы получаете схожие коэффициенты сжатия, и поскольку ваш файл имеет такой круглый размер (1 ГБ), вероятно, что изображение намного больше, чем нужно, и просто заполнено повторяющимися данными.
Конечно, gzip
, compress
, bzip2
и другие могут иметь разные коэффициенты сжатия для данного файла. Именно поэтому многие крупные проекты с открытым исходным кодом предлагают несколько загрузок, сжатых разными алгоритмами - чтобы пользователи могли скачать самый маленький файл, для которого у них есть утилита распаковки.
Если это веб-сервер Apache, посмотрите/etc/httpd/
:
grep -r VirtualHost /etc/httpd/*