Il file file1.txt contiene righe come:
/api/purchase/<hash>/index.html
Per esempio:
/api/purchase/12ab09f46/index.html
Il file file2.csv contiene righe come:
<hash>,timestamp,ip_address
Per esempio:
12ab09f46,20150812235200,22.231.113.64
a77b3ff22,20150812235959,194.66.82.11
Voglio filtrare file2.csv rimuovendo tutte le righe in cui il valore di hash è presente anche in file1.txt. Questo è da dire:
cat file1.txt | extract <hash> | sed '/<hash>/d' file2.csv
o qualcosa del genere.
Dovrebbe essere semplice, ma mi sembra incapace di farlo funzionare.
Qualcuno può fornire una pipeline funzionante per questa attività?
cat
, solocut -d / -f 4 file1.txt
. O se preferisci l'aspetto sequenziale,<file1.txt cut -d / -f 4