Il calcolo parallelo è spesso modellato utilizzando un tasso locale deterministico di calcolo, sovraccarico di latenza e larghezza di banda della rete. In realtà, questi sono spazialmente variabili e non deterministici. Studi come Skinner e Kramer (2005) osservano distribuzioni multimodali, ma l'analisi delle prestazioni sembra utilizzare sempre distribuzioni deterministiche o gaussiane (non solo inesatte, è incoerente a causa della probabilità positiva di latenza negativa).
Sono stati sviluppati modelli statistici ad alta fedeltà? Esistono ragioni per la correlazione incrociata nella variabilità di calcolo / memoria locale, latenza e larghezza di banda?