Domande taggate «awk»

Un linguaggio di scansione ed elaborazione orientato al modello.


2
Reindicizzazione di un file CSV di grandi dimensioni
Ho esaminato le risposte in questo thread utile , ma il mio problema sembra essere abbastanza diverso da non riuscire a pensare a una buona risposta (almeno con sed). Ho un file CSV di grandi dimensioni (oltre 200 GB) con righe simili alle seguenti: <alphanumerical_identifier>,<number> dove <alphanumerical_identifier>è univoco in tutto …
11 files  sed  awk  csv 

6
Come posso generare la differenza tra 2 file?
Il mio file è composto da quanto segue; grosso modo: username:username:username:username:username La riga sopra continua a circa 600 caratteri. Uso il awkcomando per usarlo come argomento in una richiesta API / HTTP inviata dalla riga di comando. Sto usando il mio script per ottenere un elenco di account utente che …

3
Sostituisci più stringhe in un unico passaggio
Sto cercando un modo per sostituire le stringhe segnaposto in un file modello con valori concreti, con strumenti Unix comuni (bash, sed, awk, forse perl). È importante che la sostituzione avvenga in un unico passaggio, ovvero ciò che è già stato scansionato / sostituito non deve essere preso in considerazione …
11 bash  sed  awk  string  replace 

9
Come posso stampare il numero più lungo in una stringa?
Sto cercando un metodo per stampare il numero più lungo in una stringa. Ad esempio: se ho la stringa 212334123434test233 come posso stampare 212334123434 ? Nota: sto cercando la sequenza di numeri continua più lunga, non il valore numericamente più alto. Modifica: grazie per le risposte, a tutti. La risposta …

3
Elabora prima l'ultima riga usando awk
Ho un file di dati che voglio normalizzare utilizzando awk, basato sull'ultimo punto dati. Pertanto, vorrei accedere prima all'ultimo punto dati, per normalizzare i dati, quindi elaborarli normalmente. Il seguente metodo, usando tacdue volte, fa il lavoro, ma è forse più complicato del necessario. $ cat file 0 5 1 …

2
aritmetica awk di alta precisione
Sto cercando un modo per dire a Awk di eseguire un'aritmetica di alta precisione in un'operazione di sostituzione. Ciò comporta la lettura di un campo da un file e la sua sostituzione con un incremento dell'1% su quel valore. Tuttavia, sto perdendo precisione lì. Ecco una riproduzione semplificata del problema: …


5
Rimuovere le linee duplicate adiacenti mantenendo l'ordine
Ho un file con una colonna con nomi che si ripetono più volte ciascuno. Voglio condensare ogni ripetizione in una, mantenendo tutte le altre ripetizioni con lo stesso nome che non sono adiacenti ad altre ripetizioni con lo stesso nome. Ad esempio, voglio girare il lato sinistro sul lato destro: …
11 awk  sed  sort  uniq 

3
Stampa colonne che iniziano con una stringa specifica
Ho un file che assomiglia a questo: ID101 G T freq=.5 nonetype ANC=.1 addinfor ID102 A T freq=.3 ANC=.01 addinfor ID102 A T freq=.01 type=1 ALT=0.022 ANC=.02 addinfor Come puoi vedere, ogni riga ha un numero leggermente diverso di colonne. Voglio specificamente la colonna 1, la colonna 2, la colonna …




2
Unire due file con colonne corrispondenti
file1.txt id No gi|371443199|gb|JH556661.1| 7907290 gi|371443198|gb|JH556662.1| 7573913 gi|371443197|gb|JH556663.1| 7384412 gi|371440577|gb|JH559283.1| 6931777 file2.txt id P R S gi|367088741|gb|AGAJ01056324.1| 5 5 0 gi|371443198|gb|JH556662.1| 2 2 0 gi|367090281|gb|AGAJ01054784.1| 4 4 0 gi|371440577|gb|JH559283.1| 21 19 2 output.txt id P R S NO gi|371443198|gb|JH556662.1| 2 2 0 7573913 gi|371440577|gb|JH559283.1| 21 19 2 6931777 File1.txt ha …
11 awk  join 

2
Come modificare un file sul posto usando awk? (come con "sed -i")
Ho una awksceneggiatura new.awk: BEGIN { FS=OFS="," } NR==1 { for (i=1; i<=NF; i++) { f[$i] = i } } NR > 1 { begSecs= mktime(gensub(/[":-]/," ","g",$(f["DateTime"]))) endSecs = begSecs + $(f["TotalDuration"]) $(f["CallEndTime"]) = strftime("%Y-%m-%d %H:%M:%S", endSecs) } { print } Lo sto chiamando in shell awk new.awk sample.csv ... …
11 linux  shell  awk 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.