10 gb / s tramite porte x10 1 gb / s
Sto rispondendo solo per completezza e per risparmiarti qualche mal di testa. Ho oltre 20k server che fanno qualcosa di simile a questo e posso dirti che è una cattiva idea. Questo metodo aggiunge molta complessità che in seguito causerà problemi operativi. Lo abbiamo fatto con 4 nics da 1 GB per server. All'epoca aveva davvero più senso che andare a 10gig. All'epoca, 10gig ovunque sarebbero stati molte volte il costo per un guadagno molto piccolo. Le nostre recenti iterazioni dei nostri datacenter non lo fanno più.
Un legame LACP ( modalità 4 ) con un singolo partner LAG ti darà 10 gb / s, quasi lo stesso di una singola porta da 10 gb / s. Questo può effettivamente essere fatto usando più di 1 switch, ma devono supportare MLAG, altrimenti devi connetterti a un solo switch. Se non supportano MLAG, otterrai solo 1 switch di larghezza di banda. Le altre interfacce saranno in standby. (quindi 5 gb / s se hai 2 interruttori).
Una singola connessione utilizzerà solo un collegamento, ma puoi dividere il traffico dove richiesto su layer 7 se necessario, oppure potresti esaminare MPTCP, ma il supporto è nuovo nei kernel recenti e non sono sicuro che sia pronto per la prima serata. È possibile suddividere la sincronizzazione dei dati utilizzando LFTP + SFTP e il sottosistema mirror di LFTP. Può anche dividere un file in più flussi. C'è anche bittorrent.
Non sarà possibile eseguire DHCP su queste porte dal punto di vista client per avviare PXE un programma di installazione del sistema operativo , a meno che non si imponga eth0 sul lato server che interrompe tecnicamente il monitoraggio LACP. Si può fare, ma non deve essere e sarà rendere la risoluzione dei problemi più difficili se si forza un'interfaccia up.
Nella configurazione del legame, dovrai generare un indirizzo MAC univoco diverso da tutte le tue interfacce fisiche o avrai condizioni di competizione dovute al modo in cui PXE / DHCP funzionano, supponendo che ci sia DHCP / PXE nella tua configurazione. Ci sono molti esempi online su come generare al volo il MAC unico bond0.
Ciò richiede anche una configurazione sul lato switch che sia allineata a ciascuna configurazione del bond del server. Avrai bisogno di avere il demone LLDP installato per rendere meno problematica la risoluzione dei problemi e LLDP abilitato sui tuoi switch.
In questo caso, i cavi e le etichette devono essere impeccabili. L'automazione degli switch deve essere solida. Un offset del cavo che unisce 2 server causerà problemi molto divertenti.
Complimenti a Jay di IBM per aver reso il codice di bonding buono come lui e per averci aiutato a capire come far funzionare il DHCP in questa configurazione.