Ваша система CentOS использует Firewalld, поэтому вам нужно обновить конфигурацию брандмауэра с его помощью. Вы должны использовать команду firewall-cmd
для изменения правил . Например, чтобы разрешить службу FTP в общедоступной зоне, вы должны использовать:
# firewall-cmd --add-service=ftp --zone=public
Вы можете видеть, что в выводе вашей команды iptables
есть правила, уже определенные с помощью firewalld, поэтому вы видите все эти таблицы с '_public' в их имени.
Я не знаю, что возможно для этого в оболочке, но я думаю, что это будет сложно написать и очень трудно прочитать (и, возможно, модифицировать )позже.
Я протестировал Go против awk для основных задач CSV (выбор/удаление столбцов, фильтрация строк )и Go работает быстрее (иногда "намного" быстрее ).
Для вашего поста я создал тестовый файл с 8 640 001 строкой и ~271 МБ, а затем сделал 2 примера процессоров, один на Python и один на Go, которые используют запись -как -вы -шаблон чтения, поэтому нет промежуточного хранилища (, и оба используют буферизованный ввод-вывод, что повышает эффективность работы с большими файлами ).
Но во-первых, работает ли он вообще?
Я сделал эти два небольших образца для проявления на:
first.csv
id,name,timestamp
1,foo,2000-01-01 00:00:00
2,foo,2000-01-02 00:00:00
3,foo,2000-01-03 00:00:00
4,foo,2000-01-04 00:00:00
5,foo,2000-01-05 00:00:00
6,bar,2000-02-01 00:00:00
7,bar,2000-02-02 00:00:00
8,bar,2000-02-03 00:00:00
9,bar,2000-02-04 00:00:00
second.csv
id,name,date
10,foo,2000-01-03
11,bar,2000-02-02
Было непонятно, что означают «дата -1» и «дата+1», поэтому я предположил, что вы хотели «плюс -или -минус один день».
Когда я запускаю код Go или Python для этих файлов, я получаю:
2,foo,2000-01-02 00:00:00
3,foo,2000-01-03 00:00:00
4,foo,2000-01-04 00:00:00
6,bar,2000-02-01 00:00:00
7,bar,2000-02-02 00:00:00
8,bar,2000-02-03 00:00:00
именно этого я и ожидаю, учитывая мою интерпретацию ваших требований и входных данных:
foo 2000-01-03
иbar 2000-02-02
Я сделал этот тестовый генератор, который создает записи только для foo с интервалом в 1 секунду в течение 100 дней:
import csv
from datetime import datetime, timedelta
dt_start = datetime(2000, 1, 1)
with open('test.csv', 'w', newline='') as f:
writer = csv.writer(f)
writer.writerow(['id', 'name', 'timestamp'])
# 1 line per second for 100 days
for i in range(86400 * 100):
plus_secs = timedelta(seconds=i + 1)
writer.writerow([i + 1, 'foo', dt_start + plus_secs])
Вот как выглядит test.csv :
% ll test.csv
-rw-r--r-- 1 alice bob 271M Nov 19 22:19 test.csv
% wc -l test.csv
8640001 test.csv
Свяжите тестовый файл с first.csv, ln -fs test.csv first.csv
и я готов запустить следующее...
import csv
import sys
from datetime import datetime, timedelta
DATE_FMT = f'%Y-%m-%d'
DATETIME_FMT = f'%Y-%m-%d %H:%M:%S'
# Create lookup from second
# {name: [date-1day, date+1day]}
lookup = {}
with open('second.csv', newline='') as f:
reader = csv.reader(f)
header = next(reader)
nm_col = header.index('name')
dt_col = header.index('date')
for row in reader:
name = row[nm_col]
dt_str = row[dt_col]
dt = datetime.strptime(dt_str, DATE_FMT)
min_dt = dt - timedelta(days=1)
max_dt = dt + timedelta(days=1) # - timedelta(seconds=1)
lookup[name] = [min_dt, max_dt]
# Create on-demand writer, and iterate over first, writing when we need to
writer = csv.writer(sys.stdout)
with open('first.csv', newline='') as f:
reader = csv.reader(f)
header = next(reader)
nm_col = header.index('name')
dt_col = header.index('timestamp')
writer.writerow(header)
for row in reader:
name = row[nm_col]
if name not in lookup:
continue
dt_str = row[dt_col]
dt = datetime.strptime(dt_str, DATETIME_FMT)
min_dt = lookup[name][0]
max_dt = lookup[name][1]
if dt < min_dt or dt > max_dt:
continue
writer.writerow(row)
И запустите скрипт:
% time python3 main.py > result.csv
python3 main.py > result.csv 69.93s user 0.40s system 98% cpu 1:11.07 total
% head -n5 result.csv
id,name,timestamp
86400,foo,2000-01-02 00:00:00
86401,foo,2000-01-02 00:00:01
86402,foo,2000-01-02 00:00:02
86403,foo,2000-01-02 00:00:03
% tail -n5 result.csv
259196,foo,2000-01-03 23:59:56
259197,foo,2000-01-03 23:59:57
259198,foo,2000-01-03 23:59:58
259199,foo,2000-01-03 23:59:59
259200,foo,2000-01-04 00:00:00 # is this right?
Что мне кажется правильным :только записи за 48 -часов, центрированные по дате поиска. Я не уверен в последней найденной записи,что с первого мгновения 4-го - вот о чем закомментированный бит - timedelta(seconds=1)
.
package main
import (
"encoding/csv"
"io"
"os"
"time"
)
type LookupEntry struct {
oneDayBefore time.Time
oneDayAfter time.Time
}
const DATE_FMT = "2006-01-02"
const DATETIME_FMT = "2006-01-02 15:04:05"
var lookup = make(map[string]LookupEntry)
func main() {
makeLookupTable()
findMatchingEntries()
}
func makeLookupTable() {
f, _ := os.Open("second.csv")
defer f.Close()
r := csv.NewReader(f)
r.Read() // Discard header
for {
record, err := r.Read()
if err == io.EOF {
break
}
dt, _ := time.Parse(DATE_FMT, record[2])
oneDayBefore := dt.AddDate(0, 0, -1)
oneDayAfter := dt.AddDate(0, 0, 1) //.Add(-time.Millisecond * 1000)
lookup[record[1]] = LookupEntry{oneDayBefore, oneDayAfter}
}
}
func findMatchingEntries() {
f1, _ := os.Open("first.csv")
defer f1.Close()
w := csv.NewWriter(os.Stdout)
r := csv.NewReader(f1)
header, _ := r.Read()
w.Write(header)
for {
record, err := r.Read()
if err == io.EOF {
break
}
lookupEntry, ok := lookup[record[1]]
if !ok {
continue
}
dt, _ := time.Parse(DATETIME_FMT, record[2])
if dt.Before(lookupEntry.oneDayBefore) || dt.After(lookupEntry.oneDayAfter) {
continue
}
w.Write(record)
}
w.Flush()
}
Создайте и запустите тест:
% go build main.go
% time./main > result.csv
./main > result.csv 3.53s user 0.14s system 104% cpu 3.504 total
% head -n5 result.csv
86400,foo,2000-01-02 00:00:00
86401,foo,2000-01-02 00:00:01
86402,foo,2000-01-02 00:00:02
86403,foo,2000-01-02 00:00:03
86404,foo,2000-01-02 00:00:04
% tail -n5 result.csv
259196,foo,2000-01-03 23:59:56
259197,foo,2000-01-03 23:59:57
259198,foo,2000-01-03 23:59:58
259199,foo,2000-01-03 23:59:59
259200,foo,2000-01-04 00:00:00