Uno dei vantaggi di REST è la possibilità di memorizzare nella cache le richieste tramite cache http tradizionali (supponendo che si tratti di richieste memorizzabili nella cache).
Quando hai richieste singole, più grandi, utilizzate meno frequentemente e forse diverse (ho intenzione di recuperare gli elementi a,b,c,d
questa volta e gli elementi la a,b,d,e
prossima volta) rendi più probabile che la richiesta sia un errore nella cache e scada da una cache che potrebbe essere seduto da qualche parte tra te e la fonte.
Dati i due insiemi di richieste di cui sopra, la seconda richiesta può avere una percentuale di hit della cache del 75% ed essere sostanzialmente più veloce a recuperare e
, piuttosto che tutte e quattro le cose.
Si noti che ciò potrebbe non essere immediatamente evidente alle persone che lo utilizzano, in quanto la persona che esegue la prima serie di richieste di mancata memorizzazione nella cache continuerà ad avere le mancanze della cache.
Questo non vuol dire che sarebbe l'ideale su una connessione di rete mobile in cui è meno probabile ottenere hit di cache non locali. Ma per gli hot spot o altre situazioni wifi, gli hit della cache potrebbero essere molto più utili.
Gran parte di questo, ancora una volta, è soggetto al funzionamento dell'applicazione. Chiede tutti questi dati all'avvio? o stiamo parlando di un caricamento della pagina in cui le aspettative sui tempi di risposta sono diverse?
La cosa ideale da fare sarebbe testare questo per vedere come l'applicazione si preforma in una varietà di situazioni. Prendi in considerazione la possibilità di impostare una situazione in cui hai associato il tuo dispositivo mobile a una rete Wi- Fi locale che puoi monitorare (che è solo il primo successo su Google) e simulare una cattiva connessione Internet per vedere come funzionano effettivamente le cose (o non farlo) e quale ha le migliori prestazioni.