Domanda lama da 10 GB


9

Sto discutendo con un collega su una potenziale configurazione. Stiamo implementando una nuova soluzione blade con uno switch da 10 Gb incorporato e due server blade, ciascuno con 4 schede di rete da 10 Gb.

Tuttavia, il resto del nostro ambiente è ancora 1 GB.

Lo switch blade ha quattro porte esterne 10GBASE-T che rileveranno automaticamente fino a 1 Gb. Abbiamo in programma di LAGing questi.

In sostanza, avremo 80 Gb di larghezza di banda NIC su uno switch da 10 Gb collegato con un collegamento inter-switch da 4 Gb.

Penso che dovremmo impostare manualmente le porte interne su 1 Gb, ma non pensa che ci saranno problemi di prestazioni evidenti dal design sopra.

Per favore fatemi sapere se avete avuto esperienza con una configurazione simile, o se siete a conoscenza di eventuali problemi che possiamo anticipare.


3
È molto probabile sperimentare problemi di buffer in questo topoloy, da micro raffiche, passando da 10 Gbps a 1 Gbps. Assicurarsi di verificare la presenza di cadute di output e possibilmente aumentare i buffer delle porte in possibili.
jwbensley,

Qualche risposta ti è stata d'aiuto? in tal caso, dovresti accettare la risposta in modo che la domanda non continui a comparire per sempre, cercando una risposta. In alternativa, potresti fornire e accettare la tua risposta.
Ron Maupin

Risposte:


1

Fondamentalmente, i tuoi bundle di link da 40 Gb saranno solo per la tolleranza agli errori a meno che tu non abbia trasferimenti da lama a lama sull'interruttore a lama; anche una singola connessione al server da 10 Gb è superiore alla larghezza di banda totale dell'uplink.

Esistono molte reti e switch con velocità di porta mista. Cisco ha una linea guida basata su ricerche approfondite. Il rapporto tra la larghezza di banda della porta di accesso (connessioni del server) e della porta di distribuzione (connessioni esterne) non deve essere maggiore di 20: 1. Ciò significa che per ogni 20 Gb nella velocità della porta di accesso, è necessaria una velocità della porta uplink di 1 Gb. Quello che stai descrivendo (da 80 Gb a 4Gb) è 20: 1. La distribuzione consigliata al rapporto principale è molto più bassa a 4: 1.


1

È necessario applicare QoS tra gli interruttori blade e il resto dell'ambiente, per evitare che flussi jumbo muoiano di fame altri flussi.

Il modo in cui può essere realizzato dipende dalle specifiche hardware, ma ognuna delle 10 porte GbE con 1 switch GbE ha 8 code hardware (0-7, una coda per valore CoS), dove i pacchetti attendono il loro turno per uscire.

Hai la possibilità di configurare gli algoritmi di pianificazione utilizzati da ciascuna coda (priorità rigorosa o qualche tipo di pianificazione). La coda in cui i frame Ethernet attendono di lasciare switch blade, può essere scelta quando i frame entrano nello switch.

Il sistema operativo del server, hypervisor, deve contrassegnare i frame Ethernet, mentre gli switch blade devono rispettare i valori CoS, fidandosi della loro controparte.
Una volta contrassegnati, i frame finiranno nella coda desiderata, mantenendo il controllo.

Ulteriori informazioni sul supporto Data Center Bridging ( DCB ) e sulla configurazione tra server blade e switch.

Controlla il supporto DCB negli switch 1 GbE: se gli switch 1 Gb sono conformi DCB, i frame di pausa diretti agli switch blade agiranno su code specifiche in caso di congestione (controllo del flusso prioritario Ethernet), mentre le code con priorità più elevata continueranno a spostare i frame Ethernet.


0

Non c'è differenza. Perché hai la stessa porta sullo switch con larghezza di banda di 1 Gb e 10 Gb. Questa opzione ha probabilmente un buffer di pacchetti condiviso che non causa un problema di gocce di microburst. Ma se ottieni uno switch bundle che ha buffer separati su porte diverse quando potresti non avere spazio libero nella coda di output nei momenti di carico elevato.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.