Domande taggate «awk»

Un linguaggio di scansione ed elaborazione orientato al modello.



7
Ripeti ogni riga più volte
Vorrebbe che ogni riga di un file fosse ripetuta un numero fisso di volte. ad esempio, ogni riga viene ripetuta quattro volte: a b c diventa: a a a a b b b b c c c c Ho fatto qualche ricerca, e ci sono molte domande e risposte sulla …


5
Utilizzando grep vs awk
Per acquisire un modello particolare awke greppuò essere utilizzato. Perché dovremmo usare l'uno sull'altro? Qual è più veloce e perché? Se avessi un file di registro e volessi acquisire un determinato modello, potrei eseguire una delle seguenti operazioni awk '/pattern/' /var/log/messages o grep 'pattern' /var/log/messages Non ho fatto alcun benchmarking, …
17 linux  awk  grep  performance 

3
Sostituisci stringa multilinea nei file
Ho un numero di file che voglio aggiornare sostituendo una stringa multilinea con un'altra stringa multilinea. Qualcosa sulla falsariga di: * Some text, * something else * another thing E voglio sostituirlo con: * This is completely * different text Il risultato sarebbe che dopo la sostituzione il file contenente …

2
Blocco condizionale vs istruzione condizionale (se)
Di 'che ho un file: PRO 1 GLN 5.55112e-17 ILE -6.245e-17 THR 5.55112e-17 Voglio che ogni riga che abbia un numero diverso da 1 nella seconda colonna lo cambi in 0 e mantenga il resto. Se uso if(cioè un'istruzione condizionale), va tutto bene: awk '{if($2!=1){print $1,"0"}else{print $0}}' file PRO 1 …
17 awk 

3
Conta valori distinti di un campo in un file
Ho un file che contiene circa un milione di righe. Nelle righe ho un campo chiamato transactionid, che ha valori ripetitivi. Quello che devo fare è contarli distintamente. Indipendentemente da quante volte un valore viene ripetuto, dovrebbe essere conteggiato una sola volta.

3
awk: forzare uno stato di ritorno?
Questo è un seguito alla mia domanda precedente . Sto convalidando il numero di campi in / etc / passwd usando questo pratico frammento. Nel seguente esempio, "fieldcount1" e "fieldcount2" degli utenti hanno un numero errato di campi: $ awk -F: ' NF!=7 {print}' /etc/passwd fieldcount1:x:1000:100:fieldcount1:/home/fieldcount1:/bin/bash:::: fieldcount2:blah::blah:1002:100:fieldcount2:/home/fieldcount2:/bin/bash: $ echo $? …

1
Slurp-mode in awk?
Strumenti come sed, awko perl -nelaborare loro un ingresso disco alla volta, i record essendo le linee di default. Alcuni, come awkcon RS, GNU sedcon -zo perlcon -0ooopossono cambiare il tipo di record selezionando un diverso separatore di record. perl -npuò rendere l'intero input (ogni singolo file quando viene passato …
16 awk 



5
Estrai il valore tra virgolette doppie
La mia domanda è estrarre il valore tra virgolette doppie "". L'input di esempio è: 10.219.41.68 - - - [11 / Jun / 2014: 10: 23: 04 -0400] Sec: 0 MicSec: 1797 "GET / balancer-manager HTTP / 1.1" 200 28980 "-" "curl / 7.15.5 (i386 -redhat-linux-gnu) libcurl / 7.15.5 OpenSSL …
16 awk 

2
Stampa linee tra (e incluso) due motivi
Voglio iniziare il grepping dalle linee che ha CKalla fine della linea e smettere di grepping quando la linea ha Dalla fine. Ci ho provato grep "$CK" "$D" file..txt, ma non ha funzionato. Ingresso: kkkkkkkkkkk jjjjjjjjjjjjjjjjjj gggggggggggg/CK JHGHHHHHHHH HJKHKKLKLLL JNBHBHJKJJLKKL JLKKKLLKJLKJ/D GGGGGGGGGGGGGG GGGGGGGGGGGGGG L'output desiderato: gggggggggggg/CK JHGHHHHHHHH HJKHKKLKLLL JNBHBHJKJJLKKL JLKKKLLKJLKJ/D

3
Filtra un file .CSV in base ai valori della quinta colonna di un file e stampa quei record in un nuovo file
Ho un file .CSV con il formato seguente: "column 1","column 2","column 3","column 4","column 5","column 6","column 7","column 8","column 9","column 10 "12310","42324564756","a simple string with a , comma","string with or, without commas","string 1","USD","12","70%","08/01/2013","" "23455","12312255564","string, with, multiple, commas","string with or, without commas","string 2","USD","433","70%","07/15/2013","" "23525","74535243123","string , with commas, and - hypens and: semicolans","string with …
16 linux  sed  awk  csv  filter 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.