Questa domanda è simile a una domanda più generale su quale sia il giusto modello teorico di un computer per progettare algoritmi e strutture di dati.
Qui, chiedo in modo specifico gli attuali computer ad alte prestazioni (come quelli elencati come Top 500 ) o anche circa imminenti supercomputer.
Dato che questi computer in genere funzionano su enormi set di dati (sembra che alcune persone utilizzino tali macchine principalmente perché hanno un'enorme memoria principale combinata) aspetti del modello I / O (introdotto da Aggarwal e Vitter nel 1988 ) e la sua versione parallela , dovrebbe essere presente il PEM ( Arge, Goodrich, Nelson e Sitchinava nel 2008 ). D'altra parte, ci dovrebbe essere qualcosa sulla comunicazione, in particolare punire pacchetti ultra piccoli a tutti gli altri nodi di elaborazione.
Come puoi immaginare, non ho paura di esaurire le idee quando creo un nuovo modello, ma sono un po 'preoccupato di poter trascurare i precedenti tentativi di farlo, in particolare perché ho l'impressione che gli anni 1980- Nel 1995 videro molti di questi tentativi di modellazione (come BSP o modelli ponte) che sembrano non essere stati ampiamente utilizzati.
Quali modelli dovrei dare un'occhiata più da vicino?