Il campo dell'informatica distribuita non è andato molto bene nello sviluppo di un'unica teoria matematica per descrivere algoritmi distribuiti. Esistono diversi "modelli" e framework di calcolo distribuito che semplicemente non sono compatibili tra loro. La pura esplosione di diverse proprietà temporali (asincronia, sincronia, sincronia parziale), varie primitive di comunicazione (trasmissione di messaggi vs. memoria condivisa, trasmissione vs. unicast), più modelli di errore (arresto di arresto, ripristino di emergenza, invio di omissioni, bizantino e così via on) ci ha lasciato con un numero intrattabile di modelli di sistema, framework e metodologie, che il confronto tra risultati di solvibilità relativi e limiti inferiori attraverso questi modelli e framework è diventato arduo, intrattabile e, a volte, impossibile.
La mia domanda è molto semplice, perché è così? Cosa c'è di così profondamente diverso nel calcolo distribuito (dalla sua controparte sequenziale) che non siamo riusciti a mettere insieme la ricerca in una teoria unificata del calcolo distribuito? Con il calcolo sequenziale, le macchine di Turing, le funzioni ricorsive e il calcolo Lambda sono stati troncati per essere equivalenti. È stato solo un colpo di fortuna o abbiamo fatto davvero un buon lavoro nell'incapsulare il calcolo sequenziale in un modo che non è stato ancora realizzato con il calcolo distribuito?
In altre parole, il calcolo distribuito è intrinsecamente inflessibile per una teoria elegante (e se sì, come e perché?), O semplicemente non siamo abbastanza intelligenti da scoprire una tale teoria?
L'unico riferimento che ho trovato per risolvere questo problema è: " Valutare due decenni di ricerca sulla teoria dell'informatica distribuita " di Fischer e Merritt DOI: 10.1007 / s00446-003-0096-6
Eventuali riferimenti o esposizioni sarebbero davvero utili.