завихритесь несколько файлов и сохраните вывод в одном файле

Принятие исходного вопроса означало считать количество строк, соответствующих указанным выше требованиям, затем это должно сделать это:

grep -e '\<[[:upper:]][[:alpha:]]\{4,9\}\>' file|wc -l

Принятие его означало печатать номера строки, которые соответствуют:

awk --re-interval '{line = line + 1} /\<[[:upper:]][[:alpha:]]{4,9}\>/ {print line}' file
3
30.03.2012, 16:29
2 ответа

Вы могли сохранить все свои URL в файле (сказать urls.txt, один на строку), затем цикл по ним в Вашем сценарии:

#! /bin/bash

# optional, clean up before starting
rm exportfile

while read url ; do
   echo "URL: $url"       >> exportfile
   curl "$url" | head -20 >> exportfile
done < urls.txt

Одна из важных вещей использует >> добавлять. > перезаписи.

7
27.01.2020, 21:10
  • 1
    Большой, работы как очарование! –  Reinstate Monica 30.03.2012, 16:59

Попробуйте этот (удар):

{ curl http://example.com/url1 | head -20 \
  && curl http://example.com/url2 | head -20; } > exportfile
2
27.01.2020, 21:10
  • 1
    Спасибо, хорошо работает, но это не помещает URL во главе вывода. –  Reinstate Monica 30.03.2012, 16:59

Теги

Похожие вопросы