Vorrei monitorare un file di registro di grandi dimensioni (vicino a 1 GB) per errori. Voglio che questo sia vicino al tempo reale (qualche secondo di ritardo va bene). Il mio piano è di usare tail -f | grep. Esistono problemi di prestazioni con l'utilizzo di un metodo simile quando lo si esegue per un lungo periodo, ad esempio da zero byte a 1 GB? Esistono pratiche standard utilizzate per tale monitoraggio? Si noti che vorrei farlo utilizzando i comandi unix standard disponibili su Solaris 10.
Se ciò è possibile, il mio file si sposta persino e ho ancora un problema da risolvere :). using tail -F( --follow=name) non è un'opzione per me perché -Fnon è supportato nel server su cui voglio eseguirlo. Il mio piano è quello di utilizzare uno script che avvierà questa coda e scruterà per scoprire se il file viene girato. Se sì, allora uccidi la coda e riavviala. Qualche approccio migliore?
tail", vero?