Catalizzatore di base 3560 Egress Shaping


8

Abbiamo un fornitore di servizi (e non possiamo cambiarli) che ci sta fornendo una connessione in stile "metro ethernet" tra due delle nostre sedi. Ad ogni estremità, ci colleghiamo a una porta Ethernet sullo switch di un provider e spediscono i frame avanti e indietro. Otteniamo una certa larghezza di banda da loro e stanno facendo cadere pacchetti che esplodono sulla larghezza di banda.

Sono abbastanza sicuro che un buon modo per non esplodere oltre il loro limite ed evitare la caduta di pacchetti sia per noi di modellare il nostro traffico in modo che rientri nel limite. Penso di essere molto vicino a capire come farlo, ma è piuttosto complicato. Abbiamo un Cisco Catalyst 3560X su ciascun lato della connessione.

Se voglio modellare il traffico fino a 50 Mbps attraverso il tunnel, sembra il modo giusto (forse solo?) Di farlo è quello di usare la modellazione sulle code di uscita delle porte utilizzate per il collegamento su ciascuno dei nostri 3560. Non abbiamo bisogno di contrassegnare o classificare alcun traffico, vogliamo solo modellare tutto fino a 50 Mbps. Ecco un esempio di configurazione delle porte in questo momento:

interface GigabitEthernet0/1
 speed auto 10 100
 spanning-tree portfast disable

So che vorrò farlo mls qosin modalità di configurazione globale. Quindi dovrei vedere qualcosa del genere:

[Switch name]# show mls qos int gig0/1 queueing
GigabitEthernet0/1 
Egress Priority Queue : disabled
Shaped queue weights (absolute) :  25 0 0 0
Shared queue weights  :  25 25 25 25
The port bandwidth limit : 100  (Operational Bandwidth:100.0)
The port is mapped to qset : 1

La mia comprensione finora è la seguente, sentiti libero di correggermi:

  • Tutto il traffico sarà CoS 0 / non contrassegnato, quindi andrà nella coda di uscita 2 per impostazione predefinita.
  • La coda di uscita 2 condivide la larghezza di banda equamente con la coda 3 e 4 e il peso della coda 1 viene ignorato.
  • La coda di uscita 1 è modellata su 1/25 della larghezza di banda dell'interfaccia, quindi in questo caso 4 Mbps.

Quindi ho capito che le code 2 - 4 sono garantite ognuna dal 33% della larghezza di banda (33 Mbps, giusto?) E che la coda 1 è modellata a 4 Mbps. La mia prima domanda è:

Con questa configurazione predefinita, se viene utilizzata solo la coda 2 , quanta larghezza di banda otterrà? 100 Mbps? E se tutte le code fossero completamente utilizzate, la coda 1 avrebbe 4 Mbps e le code 2 - 4 avrebbero ciascuna 32 Mbps (100 - 4 = 96/3 = 32)?

E ora la vera domanda:

Per modellare tutto il traffico in uscita non classificato per adattarlo a 50 Mbps, posso semplicemente accedere
srr-queue bandwidth shape 0 2 0 0all'interfaccia in questione ed essere fatto?

Sembra che i limiti di condivisione e modellazione della coda non siano garantiti, quindi potrei aver bisogno di scendere a 45 Mbps nominali sulla coda di uscita se si desidera evitare qualsiasi scoppio oltre 50 Mbps. Posso farlo semplicemente correndo srr-queue bandwidth limit 90combinato con la modellazione di cui sopra? Sarebbe lo stesso invece usare:

srr-queue bandwidth shape 0 1 0 0
srr-queue bandwidth limit 45

Quella forma modellerebbe la coda da 2 a 45 Mbps (su un'interfaccia da 100 Mbps)?

Una volta che lo capisco, immagino che la mia prossima fermata sia l'ordinamento delle allocazioni e delle soglie del buffer in modo che il mio shaping stia rilasciando il minor numero possibile di pacchetti, giusto? Questa può essere una domanda separata, se necessario, ma in realtà sembra avere molto più senso finora.


1
Una nota a margine alla tua domanda: in base all'esperienza con Metro Ethernet, potresti voler mettere i router su ciascun lato ed eseguire un protocollo di routing e BFD. Quando il collegamento si interrompe, entrambe le parti penseranno che sia ancora attivo poiché la connessione all'apparecchiatura telco sarà ancora attiva. Questo ci ha dato molta frustrazione in passato.
Ron Maupin

@RonMaupin Già parte del piano, grazie per il suggerimento! Parte del piano come in non inseriremo apparecchiature, invece utilizzeremo la funzionalità di livello 3 degli switch per instradare da una posizione all'altra. Non vogliamo che un grande dominio di trasmissione attraversi un collegamento WAN relativamente più lento.
Todd Wilcox,

OK. Non so se è possibile eseguire BFD su quegli switch. Questa è davvero l'unica soluzione che abbiamo scoperto per scoprire che il collegamento è in breve tempo. I protocolli di routing richiederanno un po 'di tempo per rendersi conto che non vi è alcuna connessione all'altra estremità poiché i collegamenti verranno comunque visualizzati come attivi / inattivi nell'apparecchiatura.
Ron Maupin

Oh, non stavo pensando alla resilienza quanto al routing piuttosto che alla trasmissione. Al momento non abbiamo nulla a cui fare il failover. Se arrivasse a questo, penso che l'EIGRP potrebbe effettivamente essere sufficiente. Comunque, questo è più lontano in futuro da dove siamo ora.
Todd Wilcox,

OK. Stavo solo cercando di passare qualche [brutta] esperienza con la Metro Ethernet. Questo è anche un problema con qualche altro vettore Ethernet. Alcuni di questi sono davvero su circuiti TDM, e i circuiti terminano in apparecchiature portanti che si presentano su / su, anche quando il circuito TDM è inattivo. BFD aiuta davvero questo, ma è limitato nei dispositivi che possono usarlo.
Ron Maupin

Risposte:


6

E ora la vera domanda:

Per modellare tutto il traffico in uscita non classificato per adattarlo a 50 Mbps, posso semplicemente accedere srr-queue bandwidth shape 0 2 0 0all'interfaccia in questione ed essere fatto?

Sembra che i limiti di condivisione e modellazione della coda non siano garantiti, quindi potrei aver bisogno di scendere a 45 Mbps nominali sulla coda di uscita se si desidera evitare qualsiasi scoppio oltre 50 Mbps. Posso farlo semplicemente correndo srr-queue bandwidth limit 90combinato con la modellazione di cui sopra?

Risposta breve: Sì, questo è tutto ciò che serve per eseguire la modellazione dell'uscita.

Naturalmente, è necessario inserire mls qos, ma una volta configurato, la modellazione dell'uscita su una porta è semplice come:

  1. Regola la velocità della linea, se necessario ( speed 10 100 1000)
  2. Impostare il limite della larghezza di banda, se necessario ( srr-queue bandwidth limit 10-90, l'ultimo argomento è la percentuale della velocità della linea a cui limitare la larghezza di banda)
  3. Immettere il peso di modellazione per la coda 2 sull'interfaccia (in srr-queue bandwidth shape 0 x 0 0cui il limite di larghezza di banda (se applicato) o la velocità di linea (se non è presente un limite) divisa per xla larghezza di banda su cui è modellato il traffico)

Fonte:
oggi ho preso un altro 3560, ho messo un computer in più su ciascuna delle due porte e ho iniziato a fare modifiche alla configurazione copiando i file avanti e indietro tra i due computer, guardando la velocità di copia stimata e facendo un po 'di matematica per confermare i numeri abbinare.


0

È abbastanza facile Se si dispone di RTP o LLQ, potrebbe essere necessario eseguire criteri nidificati, ma in caso contrario:

class-map match-any myRate
 match any

policy-map myRatePolicy
 class myRate
  shape average 50m

interface GigabitEthernet0/1
 service-policy output myRatePolicy

Puoi spiegare se questo metodo di modellazione funziona in modo diverso dal metodo nella mia risposta? Inoltre, sai su quali piattaforme è supportato?
Todd Wilcox,

Sembra su Catalyst 3560, match anynon è un sottocomando valido per la mappa di classi ma penso che match protocol ipfaccia la stessa cosa. Il shapesottocomando della mappa di classi mappa politica non è disponibile sul mio Catalyst 3560. Quindi questa è una buona informazione che non risponde alla mia domanda. Grazie per aver risposto, però.
Todd Wilcox,

Il supporto delle funzionalità di @ToddWilcox è un buon punto. Bene, il 3560 ( non viene più venduto ) non supporta questo nuovo stile di configurazione IOS-XE. Inoltre, una rapida ricerca su Google rivela alcuni problemi segnalati con la modellazione su questo interruttore precedente. Potresti trarre vantaggio dall'aggiornamento.
Ronnie Royston,

Abbiamo nove 3560 in servizio e un budget che dobbiamo ottenere e molte altre esigenze nella categoria delle apparecchiature di rete. Inoltre .. l'unico "problema segnalato" che posso trovare su quel link è l'avvertenza che in realtà non si limita all'esatta percentuale specificata, lo fa effettivamente con incrementi di 6 .. um .. kbps? Qualcosa del genere. Quindi devi lasciare un po 'di spazio in più. Ma la differenza è effettivamente segnalata dall'output di show mls qos int <type><#> queueingquindi non devi indovinare.
Todd Wilcox,

Inoltre, anche se ho fatto i miei test su un EoL 3560E, sono abbastanza sicuro che sia compatibile con la configurazione del 3560CX , che è ancora in produzione ed è il vero switch che abbiamo in corso per questa applicazione, dal momento che abbiamo solo bisogno di un basso switch edge port-count per l'interfacciamento con il nostro provider.
Todd Wilcox,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.