Sto lavorando per espandere il back-end di archiviazione per diversi cluster VMware vSphere 5.5 e 6.0 nel mio datacenter. Ho principalmente utilizzato datastore NFS durante la mia esperienza VMware (Solaris ZFS, Isilon, VNX, Linux ZFS) e posso introdurre un array iSCSI Nimble nell'ambiente, nonché un possibile array ibrido Tegile (ZFS) .
Le attuali soluzioni di archiviazione sono array basati su Nexenta ZFS e Linux ZFS, che forniscono montaggi NFS agli host vSphere. La connettività di rete viene fornita tramite 2 trunk LACP da 10 GbE sulle testine di archiviazione e 2 x 10 GbE su ciascun host ESXi. Gli switch sono due unità Arista 7050S-52 top-of-rack configurate come peer MLAG .
Sul lato vSphere, sto usando vSphere Distributed Switches (vDS) configurato con legami LACP sui collegamenti uplink 2 x 10GbE e condivisioni di ripartizione NIOC (Network I / O Control) per il portgroup VM, NFS, vMotion e il traffico di gestione.
Questa soluzione e l'approccio progettuale hanno funzionato meravigliosamente per anni, ma aggiungere l'archiviazione a blocchi iSCSI è un grande cambiamento per me. Dovrò ancora conservare l'infrastruttura NFS per il prossimo futuro.
Vorrei capire come posso integrare iSCSI in questo ambiente senza cambiare il mio design fisico. Il MLAG sugli interruttori ToR è estremamente importante per me.
- Per l'archiviazione basata su NFS, LACP è il mezzo comunemente accettato per fornire ridondanza del percorso.
- Per iSCSI, LACP è generalmente disapprovato, con i progetti multipath MPIO come approccio raccomandato.
- Sto usando 10GbE ovunque e vorrei mantenere i semplici collegamenti a due porte a ciascuno dei server. Questo è per semplicità di cablaggio e design.
Considerato quanto sopra, come posso ottenere il massimo da una soluzione iSCSI?
- Configurare iSCSI su LACP?
- Creare adattatori iSCSI VMkernel su vDS e provare a collegarli per separare i collegamenti verso l'alto per ottenere una sorta di MPIO mutante?
- Aggiungi più schede di rete?