Domande taggate «awk»

Un linguaggio di scansione ed elaborazione orientato al modello.


4
Dividi l'output lungo in due colonne
Esiste una semplice utility o script per catalogare l'output di uno dei miei script? Ho dei dati in qualche forma: A aldkhasdfljhaf B klajsdfhalsdfh C salkjsdjkladdag D lseuiorlhisnflkc E sdjklfhnslkdfhn F kjhnakjshddnaskjdh ma se questo diventa due lunghi, scrivi i dati nel seguente modulo (dove è ancora ordinato verticalmente): A …



3
la ripetizione di awk {n} non funziona
Sto cercando di stampare le linee usando il simbolo di ripetizione {n} ma non funziona. Per. ad es. voglio stampare tutte le linee la cui lunghezza è di 4 caratteri awk '/^.{4}$/' test_data Il codice sopra riportato non lo stampa. Come correggerlo in modo da poter utilizzare il simbolo di …

5
Come posso ordinare un elenco con il livello major.minor.patch e talvolta rc correttamente?
Devo ordinare il seguente elenco con uno script di shell e far apparire l'ultima versione in basso o in alto. Come lo farei solo con gli strumenti shell? release-5.0.0.rc1 release-5.0.0.rc2 release-5.0.0 release-5.0.1 release-5.0.10 release-5.0.11 release-5.0.13 release-5.0.14 release-5.0.15 release-5.0.16 release-5.0.17 release-5.0.18 release-5.0.19 release-5.0.2 release-5.0.20 release-5.0.21 release-5.0.22 release-5.0.23 release-5.0.24 release-5.0.25 release-5.0.26 release-5.0.27 …
18 shell-script  awk  sed  python  sort 

3
Estrarre parte delle linee con un motivo specifico usando awk, sed
Ho una domanda relativa agli operatori awk / sed. Ho un file di grandi dimensioni che ha ripetuto le seguenti righe Expression loweWallrhoPhi : sum=-6.97168e-09 Expression leftWallrhoPhi : sum=6.97168e-09 Expression lowerWallPhi : sum=-5.12623e-12 Expression leftWallPhi : sum=5.12623e-12 Expression loweWallrhoUSf : sum=-6.936e-09 Expression leftWallrhoUSf : sum=6.97169e-09 Expression lowerWallUSf : sum=-5.1e-12 Expression …

7
Stampa linee dispari, stampa linee pari
Voglio stampare le righe dispari e pari dai file. Ho trovato questo script di shell che utilizza echo. #!/bin/bash # Write a shell script that, given a file name as the argument will write # the even numbered line to a file with name evenfile and odd numbered lines # …

11
Grep enorme numero di modelli da un enorme file
Ho un file che cresce di circa 200.000 righe al giorno ed è tutto formato con blocchi di tre righe come tali: 1358726575123 # key Joseph Muller # name carpenter # job 9973834728345 Andres Smith student 7836472098652 Mariah Anthony dentist Ora, ho un altro file da cui estraggo circa 10.000 …
18 grep  awk  database  text 

1
Elimina un array in awk
In awk, posso cancellare un array con un loop, rendendolo un array vuoto, il che equivale a eliminarlo. for (key in array) delete array[key]; c'è un modo più facile? Posso eliminare completamente un array, in modo che il nome della variabile possa essere riutilizzato per uno scalare?
18 awk  array 

5
Unisci due elenchi rimuovendo i duplicati
Ho un sistema Linux incorporato usando Busybox (OpenWRT) - quindi i comandi sono limitati. Ho due file che sembrano: primo file aaaaaa bbbbbb cccccc mmmmmm nnnnnn secondo file mmmmmm nnnnnn yyyyyy zzzzzz Devo unire questi 2 elenchi in 1 file e rimuovere i duplicati. Non ho diff (lo spazio è …
18 bash  grep  sed  awk  busybox 


4
Dividi un file in due
Ho un file di grandi dimensioni e devo dividerlo in due file. Supponiamo che nel primo file sia necessario selezionare le 1000 righe e inserirle in un altro file ed eliminare quelle righe nel primo file. Ho provato a usare splitma sta creando più blocchi.

1
Quando usare grep, less, awk, sed [chiuso]
Chiuso . Questa domanda è basata sull'opinione . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che possa essere risolta con fatti e citazioni modificando questo post . Chiuso 3 anni fa . Sto entrando nel mondo di Linux e al lavoro sto usando …
17 awk  sed  grep  less 


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.