Wget отображает проблему от api_key

Непригодность Fedora в целях сервера не связана с самим программным обеспечением, а скорее короткий жизненный цикл Fedora. Версии Fedora ликвидированы после 13 месяцев, что означает, что система должна быть обновлена по крайней мере один раз в год для выполнения поддерживаемой версии. Если или выполнение неподдерживаемой версии или обновление этого часто не являются беспокойством затем, это совершенно жизнеспособно для выполнения Fedora как сервера. Иначе нужно рассмотреть выполнение EL вместо этого.

0
04.01.2013, 20:19
3 ответа

я думаю, что это будет работать

grep -oP "http:\//[a-zA-Z0-9\-\.]+\.[a-zA-Z]{2,3}(:[a-zA-Z0-9]*)?/?([a-zA-Z0-9\-\._\?\,\'/\\\+&%\$#\=~])*.jpg" inputfile  | xargs -n1 wget

или если у Вас есть список затем, можно использовать

cat list.txt | xargs -n1 wget 
1
28.01.2020, 02:53
  • 1
    После использования кошки я добираюсь, 400 Плохих –  DᴀʀᴛʜVᴀᴅᴇʀ 04.01.2013, 20:32
  • 2
    @graphicsman запроса означают, что Ваш файл list.txt не содержит надлежащие URL, можно использовать grep с URL regex, поскольку я упоминаю Вашему XML-файлу –  Rahul Patil 04.01.2013, 20:33
  • 3
    нет. Сервер, кажется, понизился. Вызов технической поддержки. Теперь я не могу получить изображения, которые когда-то отобразились в браузере. –  DᴀʀᴛʜVᴀᴅᴇʀ 04.01.2013, 20:36
  • 4
    @graphicsman при регистрации той ошибки с тем URL, затем было бы полезно понять проблему.. –  Rahul Patil 04.01.2013, 20:36
  • 5
    @graphicsman при регистрации той ошибки со снимком экрана она поможет решить вопрос. –  Rahul Patil 05.01.2013, 07:33

Не видя образец входа и по крайней мере ядра Вашего сценария, я могу только размышлять, что URL вмешиваются со злорадными йети пространства. Они известны за это безответственное поведение - Ваша единственная надежда состоит в том, чтобы назвать область 51 технической поддержкой.

Или, возможно, обеспечьте образец и сценарий здесь. Сумасшедшая идея, но это могло бы помочь. Анонимизируйте или запутайте их при необходимости, но не портя структуру XML-файла.

Я собираюсь предположить, что Вы используете простой regexp и указываете, что как правило, "анализируя" XML с regexps не хорошая идея - это хрупко, и легко перепутанный допустимым но неожиданным входом... пользуются xml парсинг библиотеки или функции или даже инструмента как xml2 для извлечения URL из XML-файлов.

Обратите внимание также, что, как подсказал Охотником на оленей выше, если URL содержат какие-либо пробелы или знаки пунктуации с особым значением к оболочке (например, &, ?, *, и многие другие), необходимо будет заключить в кавычки или выйти из URL перед использованием его на wget командной строке. Как очень простой пример, использовать wget "$URL" вместо просто wget $URL - отметьте двойные кавычки вокруг переменной $URL.

0
28.01.2020, 02:53

после большого количества обзора мы нашли, что сеть была проблемой. wget сценарий работал бы на другие сайты и ссылки, загруженные инструментами оконными, такими как jdownloader. По некоторым причинам основанная на Linux сторона не получила бы доступ к веб-серверу NT от поставщика. Мы установили winbind, но исследование сети в порядке.

0
28.01.2020, 02:53

Теги

Похожие вопросы