Sto cercando di capire qualcosa a cui non riesco proprio a trovare una buona risposta.
Se dico una cache REDIS (o una cache in memoria esterna) che si trova in un centro dati e un server applicazioni che si trova nello stesso centro dati, quale sarà la velocità della connessione di rete (latenza, velocità effettiva) per la lettura dei dati tra queste due macchine?
La "velocità" della rete, ad esempio, sarà comunque almeno di un ordine di grandezza superiore alla velocità della RAM che sta cercando i miei dati dalla cache su REDIS?
La mia ultima domanda è: avere tutto questo in memoria su REDIS in realtà fornisce qualche utilità? In contrasto con se REDIS stava invece memorizzando nella cache tutto questo su un SSD? La memoria è costosa. Se la rete non è effettivamente un collo di bottiglia ALL'INTERNO del data center, la memoria ha un valore. Altrimenti no.
Immagino che la mia domanda generale sia nonostante le enormi incognite nei data center e l'incapacità di generalizzare, nonché le varianze, stiamo parlando di sufficienti ordini di grandezza tra la latenza della memoria in un sistema informatico e persino le migliori reti interne a un DC che la memoria ha latenze ridotte non forniscono un significativo miglioramento delle prestazioni? Capisco che ci sono molte variabili, ma quanto è vicino? È così vicino che queste variabili contano? Ad esempio, prendi una posizione iperbolica su di esso, un'unità a nastro è molto più lenta della rete, quindi il nastro non è l'ideale per una cache.