Segmenti più veloci di una rete significano portata più veloce o latenza più bassa?


12

Questa è un'altra di quelle ipotetiche domande. Ho cercato di capire se avere o meno un "segmento" più veloce di una rete tra l'host A e l'host B si tradurrà in una velocità di flusso più elevata o in una latenza inferiore tra di loro. Lascia che ti mostri i collegamenti fisici nella rete tra il computer A e il computer B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

In breve, esiste un collegamento 1G dall'host A al primo switch, che ha un modulo SFP al suo interno collegato a una breve corsa in fibra 10G / 40G / 100G (non importa, solo più veloce di 1G), che si collega a un altro modulo SFP in un altro interruttore in rame 1G, che è collegato tramite rame 1G all'host B.

Il traffico scorre più velocemente tra i due host a causa della fibra che scorre nel mezzo? O la portata e la latenza sarebbero le stesse se la sezione tra i due switch avesse la stessa velocità del resto della rete?

Avrebbe senso che la latenza fosse inferiore tra l'host A e l'host B, ma la velocità di ingresso e di uscita delle schede di rete limiterebbe la portata, giusto? In tal caso, ha senso collegare switch e router "core" a collegamenti più veloci?

Risposte:


13

Nemmeno davvero. La sostituzione di un collegamento in rame con un collegamento in fibra potrebbe ridurre leggermente la latenza (presupponendo un collegamento non interessato), ma ciò che si ottiene realmente quando si sostituisce un collegamento "core" con un collegamento a larghezza di banda maggiore è meno possibile congestione. Nel tuo esempio di scenario, non importa, perché c'è un solo dispositivo su ciascuna estremità. In una rete attiva, tuttavia, il passaggio da 1g a 10g di collegamenti core faciliterà i problemi di congestione all'interno del nucleo della rete.

Ora, come effetto collaterale, potresti ottenere una latenza più bassa e un migliore flusso di traffico, ma ciò è puramente dovuto all'allentamento della congestione in modo che i router / switch non siano sovraccarichi e rilascino / accodino il traffico.


Quindi aumentare la velocità dei collegamenti nel nucleo della rete aumenta la capacità, non la velocità.
Libbux,

4
Fondamentalmente sì. La "velocità" nel linguaggio di rete non è tanto quanto è veloce , ma quanti bit al secondo puoi spingere su un collegamento. La latenza / RTT di solito dipende dalla distanza totale combinata con il numero di dispositivi nel percorso. Ogni hop / dispositivo aggiunge una piccola quantità di latenza. La "solidità" dipende fondamentalmente dalla fisica e dalla velocità della luce.
Justin Seabrook-Rocha,

Il punto chiave è che i bit viaggiano tutti alla stessa velocità - è proprio quello che mi chiedevo.
Libbux,

2
Citerò anche che tutto questo va fuori dalla finestra quando si entra nella terra del trading finanziario. In quel mondo, RTT è il re. Anche i microsecondi di RTT contano, il che li induce a fare ogni sorta di cose stupide come spostare la workstation a 100 piedi più vicino al server e accorciare la caduta di fibre.
Justin Seabrook-Rocha,

7
Mentre il segnale viaggia alla stessa velocità indipendentemente dal fatto che sia 100M, 1GE o 10GE, il ritardo di serializzazione (tempo necessario per iniettare il frame nel filo) diminuisce quando la frequenza aumenta. Cioè, se si invia un frame con ritardo di serializzazione di 100 M per 1538 B è 0,123 ms, su 1GE quel frame si trova già a 21 km lungo la fibra.
ytti,

6

La velocità del flusso di dati non fa alcuna differenza nella fisica del mezzo. Con questo intendo dire che ci vuole lo stesso tempo per far fluire un segnale elettrico da un lato di una corsa di rame di 100 metri verso l'altro, indipendentemente dal fatto che quel segnale faccia parte di un collegamento da 10 Mbps o 1 Gbps.

Se cambi da rame a fibra, potresti notare un piccolo miglioramento, ma in realtà dovrebbe essere solo una differenza marginale.

Ora, ci sono altri fattori che possono entrare in gioco, ad esempio l'apparecchiatura che può fare 10 Gbps è generalmente più in grado di elaborare i frame / pacchetti rispetto all'apparecchiatura progettata per fare 10 Mbps, quindi la latenza aggiunta dall'apparecchiatura può essere ridotta come bene. Ma questo dipende interamente dalle capacità dell'apparecchiatura e non dalla velocità del collegamento.


5

In questo caso, passando da 1G end-to-end a un core 10G non dovrebbe cambiare nulla in modo significativo. Solo un aumento marginale del throughput verrebbe dalla segnalazione più veloce (tempo di bit ridotto) sul collegamento 10G +. Ma in assenza di qualsiasi congestione (leggi: altri host), avrebbero dovuto essere in grado di saturare il collegamento per cominciare.

Il tempo impiegato dagli host A e B per segnalare (dentro e fuori) un pacchetto non cambia. Il tempo impiegato dal pacchetto per passare da switch a switch è, in teoria, proporzionalmente più veloce. Tuttavia, a queste velocità, la differenza non è evidente per un essere umano. (~ 10μs per pacchetto da 1500 mtu)


Direi che un collegamento 100G tra switch farebbe una differenza evidente?
Libbux,

Possono già più che saturare il loro collegamento locale, quindi no. Con apparecchiature di prova sensibili, è possibile misurare la variazione della latenza per pacchetto, ma non farà andare più velocemente i collegamenti di un concerto. :-) Detto questo, il vero vantaggio è evitare la congestione quando ci sono più di un semplice host A e B che utilizza il link.
Ricky Beam,

0

Poiché la velocità effettiva è = alle dimensioni di Windows / RTT tutto ciò che accorcia RTT aumenterebbe la velocità effettiva, è una domanda diversa se ne valga la pena. Maggiore è la dimensione della finestra, maggiore è l'impatto della riduzione della RTT.


1
con una finestra da 128k, 1G end-to-end sarebbe ~ 3.5G / s. con un collegamento 10G nel mezzo, quel numero passa a ~ 5G / s. Noterai che entrambi i numeri sono molto al di sopra della velocità del collegamento host, quindi non sarebbe affatto evidente.
Ricky Beam,

0

Dipende.

In una rete altrimenti inattiva dipende dal fatto che i dispositivi di commutazione siano "store and forward" o "cut through". Se i dispositivi di commutazione vengono archiviati e inoltrati, i collegamenti più veloci comporteranno una latenza inferiore. Tuttavia, se supportano la commutazione cut-through, verrà introdotta una latenza aggiuntiva in quanto non è possibile tagliare la commutazione da un collegamento in ingresso più lento a un collegamento in uscita più veloce. Tuttavia, a meno che tu non stia giocando nel mondo degli scambi ad alta frequenza o simili, è probabile che sia trascurabile in entrambi i casi.

In una rete pratica con più capacità nel nucleo diminuisce la possibilità che si verifichino congestioni da altri utenti. La congestione riduce il throughput e aumenta la latenza. In generale è positivo se i tuoi collegamenti core sono più veloci dei tuoi collegamenti dell'utente finale, quindi nessun utente finale può saturarli (quindi se stai eseguendo gigabit sul desktop dovresti probabilmente eseguire un core da 10 gigabit).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.