Vorrei monitorare un file di registro di grandi dimensioni (vicino a 1 GB) per errori. Voglio che questo sia vicino al tempo reale (qualche secondo di ritardo va bene). Il mio piano è di usare tail -f | grep
. Esistono problemi di prestazioni con l'utilizzo di un metodo simile quando lo si esegue per un lungo periodo, ad esempio da zero byte a 1 GB? Esistono pratiche standard utilizzate per tale monitoraggio? Si noti che vorrei farlo utilizzando i comandi unix standard disponibili su Solaris 10.
Se ciò è possibile, il mio file si sposta persino e ho ancora un problema da risolvere :). using tail -F
( --follow=name
) non è un'opzione per me perché -F
non è supportato nel server su cui voglio eseguirlo. Il mio piano è quello di utilizzare uno script che avvierà questa coda e scruterà per scoprire se il file viene girato. Se sì, allora uccidi la coda e riavviala. Qualche approccio migliore?
tail
", vero?