Qual è la differenza tra `Latency` e` Round Trip Time`?


14

La community Golang fornisce un sito Web demo HTTP / 2 per confrontare le prestazioni tra HTTP 1.1 e HTTP / 2.

Possiamo scegliere diversi latency, ad esempio latenza 0s, latenza 30 ms, latenza 200ms.

  1. È latencyuna terminologia dell'informatica?
  2. Cosa significa?
  3. Qual è la differenza tra latencye Round Trip Time?

inserisci qui la descrizione dell'immagine


Questa domanda e risposta possono aiutarti a capire.
Ron Maupin

Qualche risposta ti è stata d'aiuto? in tal caso, dovresti accettare la risposta in modo che la domanda non continui a comparire per sempre, cercando una risposta.
Ron Maupin

Risposte:


20

La latenza di rete è il tempo impiegato da qualcosa inviato da un host di origine per raggiungere un host di destinazione. Esistono molti componenti per la latenza e la latenza può effettivamente essere diversa da A a B e da B ad A.

Il tempo di andata e ritorno è il tempo necessario per una richiesta inviata da una fonte a una destinazione e per il ritorno della risposta alla fonte originale. Fondamentalmente, la latenza in ogni direzione, oltre al tempo di elaborazione.


10

"Latenza" può significare cose diverse. Generalmente, si tratta di un ritardo di un certo tipo: la latenza dell'applicazione è il tempo di reazione di un'applicazione (dall'input all'output), la latenza della rete è il ritardo per ottenere un pacchetto dal punto A al punto B e così via.

"Tempo di andata e ritorno" è più o meno ben definito come il ritardo di rete dal punto A al punto B e ritorno. Questa è la somma di tutti i ritardi di codifica, accodamento, elaborazione, decodifica e propagazione in entrambe le direzioni. In sostanza, è il ritardo quando A potrebbe aspettarsi una risposta da B per una richiesta che richiede pochissima elaborazione.

Molto spesso, il tempo di andata e ritorno viene confrontato con il tempo di ping tra A e B. Il tempo di ping può fornire un buon valore per l'RTT efficace, ma potrebbe anche essere qualcos'altro, a causa delle potenziali differenze di routing ed elaborazione tra i pacchetti ICMP utilizzati dal ping e quelli per i pacchetti di protocollo effettivamente utilizzati.

Nel tuo caso "latenza" significa un ritardo artificiale all'interno del server HTTP che viene aggiunto ai ritardi già presenti. Quindi, se hai un tempo di andata e ritorno effettivo di 50 ms per il server e seleziona "latenza di 200 ms" puoi aspettarti una risposta a una richiesta entro 250 ms (più il sovraccarico di elaborazione sul server).


4

Per aggiungere un po 'di background alle altre risposte, bisogna ricordare che la latenza della rete può variare in modo significativo e può influire sull'esperienza di un utente.

Una delle fonti più ovvie di latenza di rete è la distanza: i segnali che trasportano i tuoi dati viaggiano a una velocità maggiore o minore della luce, quindi maggiore è la distanza percorsa dal client al server, maggiore è la latenza. La comunicazione tra due computer collegati tramite un cavo Ethernet richiederà alcuni millisecondi. La comunicazione con un server attraverso un oceano richiederà decine o centinaia di millisecondi. La comunicazione che passa attraverso un satellite geostazionario richiederà centinaia di millisecondi.

Ciò è chiaramente visibile quando si esegue un ping, che misura il tempo di andata e ritorno, che in questo caso è molto vicino alla somma della latenza in entrambe le direzioni.

Alcune altre cose che influenzano la latenza:

  • il numero di collegamenti / hop: nella maggior parte dei casi, un pacchetto deve essere ricevuto completamente prima di poter essere inviato sul collegamento successivo. Ciò aggiunge un po 'di latenza su ogni hop;
  • il throughput di tali collegamenti: più lento è il collegamento, maggiore è il tempo necessario per il passaggio del pacchetto completo e quindi per essere inoltrato al collegamento successivo;
  • il carico di tali collegamenti: se un collegamento è pieno, potrebbe essere necessario mettere in coda il pacchetto fino a quando non può essere inviato;
  • per i collegamenti con ritrasmissione locale, il tasso di errore sul collegamento: maggiore è il tasso di errore, maggiori sono le possibilità che il pacchetto debba essere rinviato.

La latenza può avere un forte effetto sull'esperienza dell'utente (o meno):

  • il caso più noto è la latenza che colpisce i giocatori di MMORPG e altri giochi online.
  • qualsiasi cosa interattiva in cui l'interazione è controllata dall'altra parte è influenzata dalla latenza. Telnet / ssh, desktop remoto, sono tutti interessati dalla latenza.
  • la comunicazione vocale è influenzata dalla latenza e con un'elevata latenza si finisce con persone che si interrompono continuamente.
  • anche i vecchi protocolli di trasferimento file soffrivano di latenza poiché non implementavano finestre scorrevoli e il mittente doveva attendere che il pacchetto arrivasse a destinazione e che il riconoscimento tornasse, prima di inviare il successivo.

Anche con casi non interattivi, la latenza può avere un effetto (come illustrato nell'esempio del PO): quando ci sono molti piccoli file da scaricare, la latenza può comportare un tempo di caricamento totale più elevato se il protocollo deve attendere un file da scaricare completamente prima di iniziare il download di quello successivo, rispetto a un protocollo che consentirebbe di inviare più richieste contemporaneamente e di inviare le risposte senza interruzione tra i file successivi.


4

Il tempo di andata e ritorno (RTT) è il tempo impiegato da un pacchetto per passare dall'endpoint di invio all'endpoint di ricezione e viceversa. Esistono molti fattori che influenzano RTT, tra cui ritardo di propagazione, ritardo di elaborazione, ritardo di accodamento e ritardo di codifica. Questi fattori sono generalmente costanti per una data coppia di endpoint comunicanti. Inoltre, la congestione della rete può aggiungere un componente dinamico a RTT.

RTT e ping sono uguali?

Il tempo di andata e ritorno e il tempo di ping sono spesso considerati sinonimi. Mentre il tempo di ping può fornire una buona stima RTT, differisce per il fatto che la maggior parte dei test di ping sono eseguiti all'interno del protocollo di trasporto utilizzando i pacchetti ICMP. Al contrario, RTT viene misurato a livello di applicazione e include il ritardo di elaborazione aggiuntivo prodotto da protocolli e applicazioni di livello superiore (ad es. HTTPS).

Che dire di RTT e latenza di rete?

La latenza di rete è strettamente correlata, ma diversa da RTT. La latenza è il tempo impiegato da un pacchetto per passare dall'endpoint di invio all'endpoint di ricezione. Molti fattori possono influenzare la latenza di un servizio. La latenza non è esplicitamente uguale alla metà di RTT, perché il ritardo può essere asimmetrico tra due endpoint specifici. RTT include il ritardo di elaborazione all'endpoint eco.

Dai un'occhiata a questo post sul blog su RTT per maggiori informazioni.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.