Я думаю, что Ваша проблема --page-requisites
. Я подозреваю, что это распознает дубликаты и старается не загружать их снова. Это обычно, что Вы хотите. Вы обходите его путем вызова wget однажды к каждому URL и имеете его, загружают на другую папку каждый раз, как так:
#!/bin/bash
let i=0
while IFS=$'\n' read url; do
let i++;
wget -nv -P $i --page-requisites "$url";
done < urls.txt
Однако Вам только нужно единственное изображение, содержавшееся в каждом из файлов. Это должно добиться цели:
wget -i urls.txt -q -O - | ...extract image URLs... | wget -nv -i -
Извлечение URL от HTML может быть столь же легким как ищущий немного verbatim URLs, например.
grep -Eo 'http://host/abc/[^"]+.jpg'
Или Вам нужно немного больше усилия. Если Ваши 900 URL указывают на подобный HTML, это не должна быть проблема. В любом случае это пронумерует файлы на коллизии имени.
Это может/должно зависеть от используемого вами дистрибутива, установлены ли пакеты debug/dev для tmux и будет ли дамп ядра (если это разрешено настройками операционной системы). Если он дамп-ядро, и у вас есть отладочная версия, вы должны быть в состоянии сузить причину сбоя довольно хорошо.
Я нашел это в файле readme на странице tmux на github.
«Для отладки запуск tmux с -v или -vv будет генерировать журнал сервера и клиента. файлов в текущем каталоге."
Другими словами, если вы явно не указали журнал, он не будет вести журнал.
У меня были сбои, связанные с моим .tmux.conf
, вот что я сделал, чтобы выяснить:
Запустите tmux , чтобы получить файлы журнала клиента, сервера и вывода.
tmux -vv
cat tmux-out-*.log
Это даст вам подсказку о том, что происходит, если, например, ваш конфигурационный файл не был проанализирован должным образом и программа аварийно завершилась до того, как вы смогли что-то прочитать.
Таким образом можно было получить доступ к журналам клиента и сервера:
cat tmux-client-*.log
cat tmux-server-*.log