Ho uno script che converte i file video e lo eseguo sul server sui dati di test e ne misuro il tempo time
. Di conseguenza ho visto:
real 2m48.326s
user 6m57.498s
sys 0m3.120s
Perché il tempo reale è molto inferiore al tempo dell'utente? Questo ha qualche connessione con il multithreading? O cos'altro?
Modifica: E penso che lo script fosse in esecuzione circa 2m48s
real
tempo è l'ora dell'orologio da parete, come spiegato di seguito (cioè cosa misureremmo se avessimo un cronometro)