Фильтрация одного очень большого CSV-файла на основе значений из другого CSV-файла

Ваша система CentOS использует Firewalld, поэтому вам нужно обновить конфигурацию брандмауэра с его помощью. Вы должны использовать команду firewall-cmdдля изменения правил . Например, чтобы разрешить службу FTP в общедоступной зоне, вы должны использовать:

# firewall-cmd --add-service=ftp --zone=public

Вы можете видеть, что в выводе вашей команды iptablesесть правила, уже определенные с помощью firewalld, поэтому вы видите все эти таблицы с '_public' в их имени.

1
16.11.2021, 23:00
1 ответ

Я не знаю, что возможно для этого в оболочке, но я думаю, что это будет сложно написать и очень трудно прочитать (и, возможно, модифицировать )позже.

Я протестировал Go против awk для основных задач CSV (выбор/удаление столбцов, фильтрация строк )и Go работает быстрее (иногда "намного" быстрее ).

Для вашего поста я создал тестовый файл с 8 640 001 строкой и ~271 МБ, а затем сделал 2 примера процессоров, один на Python и один на Go, которые используют запись -как -вы -шаблон чтения, поэтому нет промежуточного хранилища (, и оба используют буферизованный ввод-вывод, что повышает эффективность работы с большими файлами ).

  • Скрипт Python:выполнялся за ~70 секунд и использовал ~6,5 МБ памяти
  • Двоичный файл Go:работал за ~3,5 секунды и использовал ~10 МБ памяти

Но во-первых, работает ли он вообще?

Базовая настройка

Я сделал эти два небольших образца для проявления на:

first.csv

id,name,timestamp
1,foo,2000-01-01 00:00:00
2,foo,2000-01-02 00:00:00
3,foo,2000-01-03 00:00:00
4,foo,2000-01-04 00:00:00
5,foo,2000-01-05 00:00:00
6,bar,2000-02-01 00:00:00
7,bar,2000-02-02 00:00:00
8,bar,2000-02-03 00:00:00
9,bar,2000-02-04 00:00:00

second.csv

id,name,date
10,foo,2000-01-03
11,bar,2000-02-02

Было непонятно, что означают «дата -1» и «дата+1», поэтому я предположил, что вы хотели «плюс -или -минус один день».

Когда я запускаю код Go или Python для этих файлов, я получаю:

2,foo,2000-01-02 00:00:00
3,foo,2000-01-03 00:00:00
4,foo,2000-01-04 00:00:00
6,bar,2000-02-01 00:00:00
7,bar,2000-02-02 00:00:00
8,bar,2000-02-03 00:00:00

именно этого я и ожидаю, учитывая мою интерпретацию ваших требований и входных данных:

foo 2000-01-03иbar 2000-02-02

Тестовый файл

Я сделал этот тестовый генератор, который создает записи только для foo с интервалом в 1 секунду в течение 100 дней:

import csv
from datetime import datetime, timedelta

dt_start = datetime(2000, 1, 1)

with open('test.csv', 'w', newline='') as f:
    writer = csv.writer(f)
    writer.writerow(['id', 'name', 'timestamp'])

    # 1 line per second for 100 days
    for i in range(86400 * 100):
        plus_secs = timedelta(seconds=i + 1)
        writer.writerow([i + 1, 'foo', dt_start + plus_secs])

Вот как выглядит test.csv :

% ll test.csv 
-rw-r--r--  1 alice  bob   271M Nov 19 22:19 test.csv

% wc -l test.csv 
 8640001 test.csv

Свяжите тестовый файл с first.csv, ln -fs test.csv first.csvи я готов запустить следующее...

Питон

import csv
import sys
from datetime import datetime, timedelta

DATE_FMT = f'%Y-%m-%d'
DATETIME_FMT = f'%Y-%m-%d %H:%M:%S'

# Create lookup from second

# {name: [date-1day, date+1day]}
lookup = {}

with open('second.csv', newline='') as f:
    reader = csv.reader(f)
    header = next(reader)
    nm_col = header.index('name')
    dt_col = header.index('date')

    for row in reader:
        name = row[nm_col]
        dt_str = row[dt_col]

        dt = datetime.strptime(dt_str, DATE_FMT)
        min_dt = dt - timedelta(days=1)
        max_dt = dt + timedelta(days=1) # - timedelta(seconds=1)

        lookup[name] = [min_dt, max_dt]


# Create on-demand writer, and iterate over first, writing when we need to

writer = csv.writer(sys.stdout)

with open('first.csv', newline='') as f:
    reader = csv.reader(f)
    header = next(reader)
    nm_col = header.index('name')
    dt_col = header.index('timestamp')

    writer.writerow(header)

    for row in reader:
        name = row[nm_col]
        if name not in lookup:
            continue

        dt_str = row[dt_col]
        dt = datetime.strptime(dt_str, DATETIME_FMT)
        min_dt = lookup[name][0]
        max_dt = lookup[name][1]
        
        if dt < min_dt or dt > max_dt:
            continue

        writer.writerow(row)

И запустите скрипт:

% time python3 main.py > result.csv
python3 main.py > result.csv  69.93s user 0.40s system 98% cpu 1:11.07 total

% head -n5 result.csv 
id,name,timestamp
86400,foo,2000-01-02 00:00:00
86401,foo,2000-01-02 00:00:01
86402,foo,2000-01-02 00:00:02
86403,foo,2000-01-02 00:00:03

% tail -n5 result.csv 
259196,foo,2000-01-03 23:59:56
259197,foo,2000-01-03 23:59:57
259198,foo,2000-01-03 23:59:58
259199,foo,2000-01-03 23:59:59
259200,foo,2000-01-04 00:00:00  # is this right?

Что мне кажется правильным :только записи за 48 -часов, центрированные по дате поиска. Я не уверен в последней найденной записи,что с первого мгновения 4-го - вот о чем закомментированный бит - timedelta(seconds=1).

Перейти

package main

import (
    "encoding/csv"
    "io"
    "os"
    "time"
)

type LookupEntry struct {
    oneDayBefore time.Time
    oneDayAfter  time.Time
}

const DATE_FMT = "2006-01-02"
const DATETIME_FMT = "2006-01-02 15:04:05"

var lookup = make(map[string]LookupEntry)

func main() {
    makeLookupTable()
    findMatchingEntries()
}

func makeLookupTable() {
    f, _ := os.Open("second.csv")
    defer f.Close()

    r := csv.NewReader(f)
    r.Read() // Discard header
    for {
        record, err := r.Read()
        if err == io.EOF {
            break
        }
        dt, _ := time.Parse(DATE_FMT, record[2])
        oneDayBefore := dt.AddDate(0, 0, -1)
        oneDayAfter := dt.AddDate(0, 0, 1)  //.Add(-time.Millisecond * 1000)
        lookup[record[1]] = LookupEntry{oneDayBefore, oneDayAfter}
    }
}

func findMatchingEntries() {
    f1, _ := os.Open("first.csv")
    defer f1.Close()

    w := csv.NewWriter(os.Stdout)

    r := csv.NewReader(f1)
    header, _ := r.Read()
    w.Write(header)

    for {
        record, err := r.Read()
        if err == io.EOF {
            break
        }

        lookupEntry, ok := lookup[record[1]]
        if !ok {
            continue
        }

        dt, _ := time.Parse(DATETIME_FMT, record[2])
        if dt.Before(lookupEntry.oneDayBefore) || dt.After(lookupEntry.oneDayAfter) {
            continue
        }

        w.Write(record)
    }
    w.Flush()
}

Создайте и запустите тест:

% go build main.go

% time./main > result.csv   
./main > result.csv  3.53s user 0.14s system 104% cpu 3.504 total

% head -n5 result.csv 
86400,foo,2000-01-02 00:00:00
86401,foo,2000-01-02 00:00:01
86402,foo,2000-01-02 00:00:02
86403,foo,2000-01-02 00:00:03
86404,foo,2000-01-02 00:00:04

% tail -n5 result.csv 
259196,foo,2000-01-03 23:59:56
259197,foo,2000-01-03 23:59:57
259198,foo,2000-01-03 23:59:58
259199,foo,2000-01-03 23:59:59
259200,foo,2000-01-04 00:00:00
0
20.11.2021, 06:39

Теги

Похожие вопросы