Принятие исходного вопроса означало считать количество строк, соответствующих указанным выше требованиям, затем это должно сделать это:
grep -e '\<[[:upper:]][[:alpha:]]\{4,9\}\>' file|wc -l
Принятие его означало печатать номера строки, которые соответствуют:
awk --re-interval '{line = line + 1} /\<[[:upper:]][[:alpha:]]{4,9}\>/ {print line}' file
Вы могли сохранить все свои URL в файле (сказать urls.txt
, один на строку), затем цикл по ним в Вашем сценарии:
#! /bin/bash
# optional, clean up before starting
rm exportfile
while read url ; do
echo "URL: $url" >> exportfile
curl "$url" | head -20 >> exportfile
done < urls.txt
Одна из важных вещей использует >>
добавлять. >
перезаписи.
Попробуйте этот (удар):
{ curl http://example.com/url1 | head -20 \
&& curl http://example.com/url2 | head -20; } > exportfile