Sto scrivendo una sceneggiatura che analizza i tempi di esecuzione dei processi. Non sono sicuro della loro distribuzione, ma voglio sapere se un processo dura "troppo a lungo". Finora ho usato 3 deviazioni standard degli ultimi tempi di esecuzione (n> 30), ma mi è stato detto che questo non fornisce nulla di utile se i dati non sono normali (cosa che non sembra essere). Ho trovato un altro test anomalo che afferma:
Trova l'intervallo tra quartili, che è IQR = Q3 - Q1, dove Q3 è il terzo quartile e Q1 è il primo quartile. Quindi trova questi due numeri:
a) Q1 - 1,5 * IQR b) Q3 + 1,5 * IQR
Il punto è anomalo se <a o> b
I miei dati tendono ad essere cose come 2sec, 3sec, 2sec, 5sec, 300sec, 4sec, .... dove 300sec è ovviamente un valore anomalo.
Quale metodo è migliore? Il metodo IQR o il metodo di deviazione standard?