Индексируемый формат архива?

В то время как существует много плагинов для Vim, это действительно не IDE. Однако можно получить многие функции IDE в Vim.

Как Вы упомянули, можно установить плагины вручную путем поиска их на основе функций, которые Вы хотели бы. Если Вы ищете что-то, что уже главным образом настроено, то я предложил бы использовать vimfiles проект scrooloose, размещенный на GitHub. Можно клонировать его в ~/.vim:

git clone https://github.com/scrooloose/vimfiles.git ~/.vim

Можно хотеть скопировать ток ~/.vim каталог сначала.

После того как это загружается, можно установить подмодули:

cd ~/.vim
git submodule init && git submodule update

Наконец для использования новых плагинов необходимо будет получить vimrc файл в Вашем ~/.vimrc путем добавления source ~/.vim/vimrc к Вашему ~/.vimrc.

5
15.04.2012, 20:25
4 ответа

Формат Zip сжимает каждый файл отдельно и затем комбинирует их (с каталогом содержания архива) в единственный архивный файл.

4
27.01.2020, 20:36
  • 1
    Да, формат zip, кажется, быстр. Что является лучшим util для сжимания/извлечения его в соответствии с Linux - я попробовал 7z, и сжатие 3x медленнее, чем bzip2. –  Rogach 15.04.2012, 21:40
  • 2
    то, что все используют; отключите сжатие полностью для максимальной скорости. –  Ignacio Vazquez-Abrams 15.04.2012, 23:27
  • 3
    Это на самом деле не сжимает каждый файл отдельно. Это нарубило входные файлы в блоки 32 КБ и сжимает каждый блок отдельно. Один блок может только быть частью большего файла, или это может содержать несколько меньших файлов. –  psusi 16.04.2012, 05:34

В дополнение к уже упомянутому формату zip, dar и dump утилиты также способны обрабатывать это, и в отличие от zip, сохраняют полномочия Unix. Для dar Вы хотите избегать использования твердой опции архива, когда это возвращается к tar/gzip методу сжатия всего этого сразу, которое дает лучшее сжатие, но заставляет извлекающие отдельные файлы занять больше времени, поскольку целый файл должен быть распакован, пока желаемый файл не найден. dump обрабатывает большие наборы небольших файлов (десятки тысяч) скорее хорошо и может сделать многопоточное сжатие, но оно только читает расширение [234] файловые системы.

3
27.01.2020, 20:36

.tar.gz имеет более быструю скорость распаковки, но компромисс является худшим размером сжатия.править: Ignacio Vazquez-Abrams ninja'd я.

1
27.01.2020, 20:36
  • 1
    Да, но это считает целый архивный файл для извлечения единственного маленького файла? А-ч –  Rogach 15.04.2012, 20:25
  • 2
    да, который является ограничением использования самого tar. –  llua 15.04.2012, 20:59
  • 3
    Печальный. Мне нужен некоторый тип архивирования, который не имеет того ограничения :( –  Rogach 15.04.2012, 21:09

pixz — параллельная версия xz с индексированием.

# Compress:
tar -I pixz -cf foo.tar.xz./foo

# Decompress:
tar -I pixz -xf foo.tar.xz

# Very quickly list the contents of the compressed tarball:
pixz -l foo.tar.xz

# Very quickly extract a single file:
pixz -x dir/file < foo.tar.xz | tar x
2
27.01.2020, 20:36

Теги

Похожие вопросы