Installazione di HP ProCurve 2810-24G per iSCSI?


8

Ho un paio di ProCurve 2810-24G che userò con una Dell Equallogic SAN e Vmware ESXi. Poiché ESXi fa MPIO, sono un po 'incerto sulla configurazione dei collegamenti tra gli switch. Un trunk è la strada giusta da percorrere tra gli interruttori?

So che le porte per gli host SAN e ESXi dovrebbero essere senza tag, quindi significa che voglio VLAN con tag sulle porte trunk?

Questa è più o meno la configurazione:

trunk 1-4 Trk1 Trunk 
snmp-server community "public" Unrestricted 
vlan 1 
    name "DEFAULT_VLAN" 
    untagged 24,Trk1 
    ip address 10.180.3.1 255.255.255.0 
    no untagged 5-23 
exit 
vlan 801 
    name "Storage" 
    untagged 5-23 
    tagged Trk1 
    jumbo 
exit 
no fault-finder broadcast-storm 
stack commander "sanstack" 
spanning-tree
spanning-tree Trk1 priority 4
spanning-tree force-version RSTP-operation

La SAN Equallogic PS4000 ha due controller, ciascuno con due interfacce di rete. Dell consiglia di collegare ciascun controller a ciascuno degli switch. Dalla documentazione di vmware, sembra che sia consigliata la creazione di un vmkernel per pNIC. Con MPIO, ciò potrebbe consentire una velocità di trasmissione superiore a 1 Gbps.

inserisci qui la descrizione dell'immagine

Risposte:


12

C'è stato un certo dibattito nei commenti alla risposta di Chopper3 che non è ben informato a causa di alcuni aspetti male compresi dei requisiti di rete di Equallogic e del comportamento multipath.

Innanzitutto il lato VMware: per i principianti sul lato ESXi l'attuale raccomandazione, quando si utilizza l'iniziatore software iSCSI, da VMware (per ESX \ ESXi 4.1) e Dell è che si dovrebbe avere un singolo Nic fisico mappato su ciascuna porta VMkernel che sarà utilizzato per iSCSI. Il processo di associazione che è ora raccomandato lo impone. Essa richiede che avete un solo NIC nic e nessun standby fisici attivi per ogni porta VMkernel. Nessun legame consentito. Ora puoi imbrogliare questo e tornare indietro e aggiungere un nic di failover, ma l'intenzione è che MPIO gestirà il failover in modo che questo non abbia uno scopo utile (almeno quando tutto funziona come previsto da VMware).

Il criterio multipath predefinito consentirà connessioni attive e attive a un array Equallogic mediante round robin.

Secondo il lato equallogico: gli array equallogici hanno due controller che agiscono in modalità \ standby attiva. Per PS4000 questi hanno due Gigabit Nics su ciascun controller. Per il controller attivo entrambe queste schede sono attive e possono ricevere IO dalla stessa sorgente. La configurazione di rete consiglia di collegare le schede di rete dell'array a switch separati. Dal lato server sono presenti più collegamenti che devono essere distribuiti anche su switch separati. Ora per la parte dispari - gli array equallogici prevedono che tutte le porte dell'iniziatore possano vedere tutte le porte attive sugli array. Questo è uno dei motivi per cui è necessario un trunk tra i due switch. Ciò significa che con un host con due porte iSCSI VMkernel e una singola PS4000 ci sono 4 percorsi attivi tra l'iniziatore e la destinazione - due sono "diretti"

Per le connessioni del controller di standby si applicano le stesse regole, ma queste schede saranno attive solo dopo un failover del controller e si applicano gli stessi principi. Dopo il failover in questo ambiente ci saranno ancora quattro percorsi attivi.

Terzo per il multipathing più avanzato: Equallogic ora ha un modulo di estensione multipath che si collega all'architettura di archiviazione plug-in VMware che fornisce un bilanciamento del carico intelligente (usando la profondità della coda minima, Round Robin o MRU) attraverso le porte VMkernel. Questo non funzionerà se tutte le reti di uplink di vmkernel non sono in grado di connettersi a tutte le porte Equallogic attive. Ciò garantisce anche che il numero di percorsi effettivamente utilizzati rimanga ragionevole: in ambienti equallogici di grandi dimensioni il numero di percorsi validi tra un host e un gruppo equallogico può essere molto elevato poiché tutte le schede di destinazione sono attive e tutte le schede di origine possono vedere tutte le schede di destinazione.

Quarto per ambienti equallogici più grandi: man mano che si ingrandisce un ambiente equallogico, si aggiungono ulteriori array in un gruppo condiviso. Tutte le porte attive su tutti gli array membri in un gruppo devono essere in grado di vedere tutte le altre porte attive su tutti gli altri array nello stesso gruppo. Questo è un ulteriore motivo per cui hai bisogno di tubi grassi che forniscano connessioni inter-switch tra tutti gli switch nel tuo tessuto iSCSI Equallogic. Questo ridimensionamento aumenta anche notevolmente il numero di percorsi attivi validi tra iniziatori e target. Con un gruppo equallogico composto da 3 array PS6000 (quattro schede di rete per controller vs 2 per PS4000) e un host ESX con due porte vmkernel, ci saranno 24 possibili percorsi attivi per lo stack MPIO tra cui scegliere.

Quinto Bonding \ link aggregation e Inter Switch link in un ambiente equallogico: tutte le connessioni tra array e iniziatore <-> sono connessioni Gigabit da punto a punto (o 10Gig se si dispone di un array 10Gig). Non è necessario e non si ottiene alcun vantaggio dal collegamento sul lato server ESX e non è possibile collegare le porte sugli array equallogici. L'unica area in cui l'aggregazione dei collegamenti \ legame \ qualunque cosa tu voglia chiamare è rilevante in un tessuto Ethernet commutato equallogico è sui collegamenti interswitch. Questi collegamenti devono essere in grado di trasportare flussi simultanei che possono eguagliare il numero totale di porte equallogiche attive nel tuo ambiente - potresti aver bisogno di molta larghezza di banda aggregata lì anche se ogni collegamento punto a punto tra le porte dell'array e le porte dell'iniziatore è limitato a 1 gbps.

Infine: in un ambiente equallogico il traffico da un host (iniziatore) a un array può e attraversa il collegamento interswitch. Il fatto che un determinato percorso lo faccia dipende dall'indirizzo IP di origine e di destinazione per quel particolare percorso, ma ciascuna porta di origine può connettersi a ciascuna porta di destinazione e almeno uno di quei percorsi richiederà l'attraversamento dell'ISL. In ambienti più piccoli (come questo) verranno utilizzati e attivi tutti quei percorsi. In ambienti più grandi viene utilizzato solo un sottoinsieme di percorsi possibili ma si verificherà la stessa distribuzione. La larghezza di banda iSCSI aggregata disponibile per un host (se configurato correttamente) è la somma di tutta la sua larghezza di banda della porta vmkernel iSCSI, anche se ci si connette a un singolo array e a un singolo volume. Quanto può essere efficace un altro problema e questa risposta è già troppo lunga.


1
Devi seguire questo consiglio! Lavoro per il più grande rivenditore EQL nel Midwest, inserisco quotidianamente questi sistemi. Il tagging / tronchi è la strada da percorrere e lascia che il plugin MEM crei i tuoi switch virtuali per te. La tua ISL dovrebbe essere grande quanto puoi permetterti di essere saggia in termini di connessione. In genere utilizziamo switch impilabili. Juniper EX4200 è FANTASTICO per iSCSI.
SpacemanSpiff

Wow, risposta fantastica. Non ho visto questo messaggio fino ad ora, ma sono riuscito a farlo funzionare e a funzionare come previsto, e i risultati di Iometer mostrano che funziona al meglio. Devo ancora controllare tutta la ridondanza. Grazie mille per la tua risposta estremamente istruttiva!
3molo

6
Since ESXi does MPIO, I am a little uncertain on the configuration for links between the switches. Is a trunk the right way to go between the switches?

ESX / i esegue la propria gestione del percorso - non diventerà attivo / attivo sui suoi collegamenti a meno che due o più dei suoi collegamenti non vadano sullo stesso switch o gli switch siano in una modalità di condivisione CAM come VSS di Cisco - qualsiasi cosa altrimenti sarà una configurazione attiva / passiva.

Sicuramente trunk tra switch se si desidera, ma presumibilmente entrambi hanno uplink a qualche switch core o router? in tal caso, non sono del tutto sicuro del motivo per cui si collegherebbe tra due soli interruttori in questo modo poiché le scatole ESX / i passeranno al secondo interruttore se il primo si abbassa (se configurato correttamente comunque).

I know that the ports for the SAN and the ESXi hosts should be untagged, so does that mean that I want tagged VLAN on the trunk ports?

Non so da dove provenga questo presupposto, ESX / i è altrettanto comodo lavorare in una configurazione con tag o senza tag, sia per il traffico guest o iSCSI. Detto questo, ho riscontrato problemi con il missaggio di tag con e senza tag quando uso i vlan predefiniti, quindi taggo sempre tutto adesso e non ho un vlan predefinito, è una configurazione molto flessibile e non ho riscontri di prestazioni percepibili nella mia esperienza.


Sono abbastanza sicuro che la documentazione ESXi per l'archiviazione SAN affermi che non si dovrebbero legare le schede di rete, ma invece fare affidamento su MPIO sia per aumentare le prestazioni che i vantaggi della ridondanza (indipendentemente dal fatto che i collegamenti vadano allo stesso switch o meno). Ovviamente non ci saranno uplink verso switch core, questa è una coppia di switch solo per l'archiviazione. Dichiaro inoltre che intendo utilizzare vlans senza tag per host e SAN, in modo che la mia domanda sia ancora valida; dovrei o non dovrei usare TAGGED nei collegamenti trunk?
3molo,

1
Il ragionamento per l'utilizzo delle porte con tag è se è necessario trasportare più di una VLAN su di essa. La codifica delle VLAN ti dà la possibilità di distinguerle. Inoltre, non è necessario utilizzare LACP per creare un bundle di aggregazione dei collegamenti (trunk per HP, Etherchannel per Cisco). È possibile impostare un gruppo di aggregazione statico e beneficiare del bilanciamento del lato switch e del failover. Detto questo, è anche comune lasciare da solo il lato switch e lasciare che ESX gestisca il processo decisionale sul traffico.
Mcmeel,

mcmeel, per favore considera di scrivere una vera risposta. È più facile commentare. Non sei sicuro di come sarebbe la configurazione dell'interruttore, se avessi lasciato che ESXi prendesse le decisioni?
3molo,

-1 elicottero, sento che o non sai abbastanza sull'argomento o non hai ancora letto la mia domanda.
3molo,

1
Il GAL funziona come previsto. Ho due collegamenti da 1 Gbit e l'EQ è collegato a uno switch ciascuno. Ottengo fino a 235 MB / s in lettura e scrittura sequenziali. O non ci capivamo affatto, o avevo ragione nelle mie dichiarazioni sull'installazione. A proposito, il suo round-robin ma afferma attivo / attivo.
3molo,

1

È il controller di array SAN che definisce come collegarlo. Fornisce lo stesso LUN su entrambe le porte sullo stesso controller? Quindi la porta0 passa allo switchA, la porta1 allo switchB e lo stesso con il controller successivo.

Perché dovresti usare LACP / etherchannel su una SAN iSCSI con porte uplink da 1 gbit? Non ti aiuta in alcun modo. Creare 2 switch virtuali con un singolo pNic in ciascun vSwitch e collegare il primo pNic a switchA, il secondo pNic a switchB. Questo ti darà piena ridondanza contro guasti controller / switch / nic.


L'etere canale / LACP è solo inter switch, ma questo non mi aiuta affatto? Immaginavo che le connessioni potessero attraversare gli switch a causa di MPIO, nel caso dicesse una porta sullo switch a cui è collegato uno dei controller.
3molo,

Perché i collegamenti dovrebbero passare tra gli interruttori? Non ha senso.
pauska,

1
Ogni iniziatore contatta l'IP dei gruppi, che reindirizza all'IP di una delle schede di rete del gruppo. Non c'è nulla che fermi un iniziatore sullo Switch A che si connette all'array sulla sua scheda NIC collegata allo Switch B. In base al numero di connessioni, un collegamento LACP da 4 GB tra gli switch dovrebbe essere sufficiente per evitare problemi. Personalmente preferisco collegare tutte le porte di un controller a uno switch. Quando li si divide, si dimezza la larghezza di banda dell'array in una situazione di errore.
SpacemanSpiff

Ottima risposta SpacemanSpiff, sono andato con 2 collegamenti LACP.
3molo
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.