Resume привел загрузку к сбою с помощью инструмента командной строки Linux

Если Ваш вопрос о происхождении кодовой базы и не стандартах, текущие Ose, непосредственно убывающие от исходной Bell Labs / выпуски Unix AT&T являются производными AIX, HP-UX, Oracle Solaris & OpenSolaris все прибытие из выпуска 4 System V и (Открытого/Свободного/Сетевого) BSD и производных от намного более ранней версии 6 Unix.

В то время как Mac OS X имеет некоторый код BSD, его ядро не является потомком кода ядра Unix.

38
06.02.2018, 18:49
3 ответа

Так как вы не указывали, я предполагаю, что вы используете wget для загрузки файла. Если это так, попробуйте использовать его с помощью опции (например WGET -C ).

Пожалуйста, обратите внимание, что в случае, если протокол используется FTP (URL выглядит как FTP: // ... ) Есть вероятность, что удаленный сервер использует старый / древний FTP-демон, который не Поддержка возобновления загрузок (более новые FTP Daemons поддерживают его более чем в десятилетии, так что это просто небольшой шанс). Если это так, хотя, вы можете быть удачи. В другой руке у вас не должно быть проблем, если используется протокол HTTP. (Обновление: в соответствии с другими экспертами (включая Gilles в комментариях ниже), возобновляя при использовании HTTP также подлежит поддержке сервера, поэтому это относится к как FTP, так и HTTP).

Удачи.

54
27.01.2020, 19:36

Я знаю, что означает исходный вопрос, и ответ неwget -c...

Сценарий можно описать следующим образом:

# Start mirroring a site
wget -m http://...
# 400MB later wget died or interrupted,
# don't know where it left off, don't care,
# just want to get the remaining 100MB without getting the first 400MB again
wget -nc -r -l inf --no-remove-listing http://...

Опции «-r -l inf --no -remove -listing» эквивалентны -m без параметра -N. Добавление параметра -nc позволяет избежать сохранения первых 400 МБ на жестком диске.

0
27.01.2020, 19:36

Если необходимо загрузить несколько файлов и загрузка одного из них была прервана, то -c вместе с -r могут помочь.

wget -c -r <url>

Эта команда проверит все файлы и загрузит только неполные или не загруженные. Мне пришлось загрузить более сотни больших файлов, и я использовал следующие опции, чтобы быть добрым к серверу:

wget -c -r -np -k --wait=15 --limit-rate=50K <url>

0
08.11.2021, 16:37

Теги

Похожие вопросы