Salti un'unità rack tra i server?


70

Sembra che ci siano molti disaccordi nelle mentalità quando si tratta di installare server rackmount. Ci sono state discussioni che parlano di bracci per cavi e altri accessori per montaggio su rack, ma sono curioso:

Lasci un'unità rack vuota tra i tuoi server quando li installi? Perché o perché no? Hai qualche prova empirica a supporto delle tue idee? Qualcuno è a conoscenza di uno studio che dimostra definitivamente se si è migliori o no?

Risposte:


81

Se i server utilizzano il raffreddamento a flusso frontale, come avviene per la maggior parte dei server montati su rack, lasciare degli spazi vuoti può danneggiare il raffreddamento. Non si desidera che l'aria fredda abbia modo di raggiungere il corridoio caldo se non attraverso il server stesso. Se è necessario lasciare spazi vuoti (per problemi di alimentazione, problemi di peso del pavimento, ecc.) È necessario utilizzare pannelli di chiusura in modo che l'aria non possa passare tra i server.


6
Sì, se si lascia un vuoto, è necessario riempirlo con un pannello per evitarlo.
Thomas,

2
= 1. i server e i rack con montaggio su rack sono progettati per il flusso d'aria con tutti i pannelli e le cornici accesi e tutto riempito. proprio come il flusso d'aria in un PC è progettato per avere tutte le coperture. aggirare il disegno lasciando spazi vuoti e \ o rimuovendo pannelli e coperture può causare più danni che benefici.
joeqwerty,

23

Non ho mai saltato le unità rack tra i dispositivi di montaggio su rack in un armadio. Se un produttore mi ordinasse di saltare le U tra i dispositivi, lo farei, ma non ho mai visto una simile raccomandazione.

Mi aspetto che qualsiasi dispositivo progettato per il montaggio su rack esaurisca il suo calore attraverso i pannelli anteriore o posteriore. Un po 'di calore verrà condotto attraverso i binari e la parte superiore e inferiore del telaio, ma mi aspetto che sia molto piccolo rispetto alle radiazioni provenienti dalla parte anteriore e posteriore.


6
In effetti, se si saltano le unità rack, è necessario utilizzare le coperture tra ciascun server, altrimenti si otterrà la miscelazione dell'aria tra i corridoi alti e freddi.
Doug Luxem,

22

Nel nostro data center non lasciamo lacune. Abbiamo aria fresca che sale dal pavimento e lacune causano problemi di flusso d'aria. Se per qualche motivo abbiamo uno spazio vuoto, lo copriamo con un piatto bianco. L'aggiunta di lastre vuote rendeva immediatamente più fredde le cime delle nostre navate fredde e le nostre navate calde.

Non credo di avere più dati o grafici, ma la differenza è stata molto chiara non appena abbiamo iniziato a apportare modifiche. I server in cima agli scaffali hanno smesso di surriscaldarsi. Abbiamo smesso di cucinare alimentatori (cosa che stavamo facendo ad una velocità di circa 1 / settimana). So che le modifiche sono state avviate dopo che il nostro responsabile del data center è tornato da un'esposizione Sun Green per data center, dove ha partecipato a seminari sul raffreddamento e simili. In precedenza avevamo utilizzato spazi vuoti e rack parzialmente riempiti e piastrelle perforate nel pavimento davanti e dietro i rack.

Anche con le armi di gestione in atto, l'eliminazione delle lacune ha funzionato meglio. Tutte le temperature interne del nostro server ovunque nella stanza sono ora ben conformi alle specifiche. Questo non era il caso prima di standardizzare la gestione dei cavi, eliminare gli spazi vuoti e correggere il posizionamento delle piastrelle del pavimento. Vorremmo fare di più per reindirizzare l'aria calda verso le unità CRAC, ma non possiamo ancora ottenere finanziamenti.


9

Non ci salta. Affittiamo e ci costano denaro.

Non c'è motivo di riscaldare in questi giorni. Tutta l'aria fresca arriva davanti e dietro. Non ci sono più fori di ventilazione nelle parti superiori.


1
Ri: "Ci costano soldi". Penso che lo spazio sia stato un fattore determinante nella determinazione dei prezzi dei datacenter. Poi ho trovato lavoro nel settore dell'hosting, risulta che la maggior parte dei costi in un ambiente Colo provengono da circuiti di alimentazione e connessioni incrociate.
JamesBarnett,


5

Non lasciare spazio se hai aria fresca proveniente dal pavimento e usa anche spazi vuoti nello spazio inutilizzato. Se hai solo un sistema di raffreddamento a bassa tecnologia che utilizza un'unità a / c standard, è meglio lasciare spazi vuoti per ridurre al minimo gli hot spot quando i server caldi sono raggruppati insieme.


4
Se i tuoi server utilizzano il raffreddamento della ventola frontale non è affatto saggio per lasciare vuoti, danneggerà il flusso d'aria.
pauska,

5

Abbiamo 3 1/2 rack di nodi cluster e il loro stoccaggio in una struttura di colocation. Le uniche posizioni in cui abbiamo ignorato le U sono quelle in cui è necessario instradare i cavi di rete al rack centrale in cui si trova lo switch del cluster principale. Possiamo permetterci di farlo in termini di spazio poiché i rack sono già al massimo in termini di potenza, quindi non sarebbe possibile stipare più nodi su di essi :)

Queste macchine funzionano 24 ore al giorno, 7 giorni su 7, con CPU al 100% e alcune hanno fino a 16 core in una scatola da 1U (4x quad core Xeon) e non ho ancora visto alcun effetto negativo del non lasciare spazi tra la maggior parte di esse.

Finché la tua attrezzatura ha un percorso aereo ben progettato, non vedo perché sia ​​importante.


5

Ho ampi spazi sopra il mio UPS (per l'installazione di una seconda batteria in futuro) e sopra la mia libreria di nastri (se ne ho bisogno di un'altra). A parte questo, non ho spazi vuoti e utilizzo i pannelli per riempire gli spazi vuoti per preservare il flusso d'aria.


3

Ogni terzo, ma ciò è dovuto ai bracci di gestione e alla necessità di aggirarli piuttosto che di calore. Il fatto che questi server abbiano ciascuno 6 cavi Cat5 che li collegano non aiuta. Facciamo un uso pesante dei pannelli di chiusura e delle dighe d'aria sopra le cremagliere per impedire il ricircolo dal corridoio caldo.

Inoltre, una cosa che non ci manca nel nostro data center è lo spazio. È stato progettato per l'espansione quando i server 7-10U erano standard. Ora che siamo andati con cluster ESX densi in rack, è una città fantasma lì dentro.


OK, 6 cavi, vediamo ... 2 interfacce di gestione, 2 interfacce iscsi e 2 .... dedicate al gestore cluster?
Matt Simmons,

Non usare le armi di gestione e non devi saltare le unità. :)
Doug Luxem,

1
6 cavi: 1x scheda HP iLO, 1x ESX mgmt LUN, 4x VM Luns. Inoltre, le fibre per la SAN. Non siamo ancora passati all'iSCSI. Se fossimo disposti a spogliare completamente i server prima di estrarli, andremmo sicuramente senza le braccia.
sysadmin1138

1
Dopo aver visto il tuo data center, mi chiedo se hai impostato le cose in un tradizionale corridoio a corridoio caldo piuttosto che sparpagliato nella tua stanza gigante se avessi migliorato le prestazioni termiche.
Laura Thomas,

3

Non lascerei spazi vuoti tra i server, ma lo farei per cose come gli switch LAN - questo mi permette di mettere alcune barre di gestione dei cavi 1U sopra e sotto ... ma sicuramente non è fatto per il raffreddamento.


2

Nessun vuoto, tranne dove abbiamo rimosso un server o qualcos'altro e non ci siamo preoccupati di riorganizzare. Penso che siamo un po 'più piccoli di molte persone qui, con 2 rack che hanno solo 15 server più alcune unità nastro e switch e UPS.


2

Nessun gap diverso da quando si pianifica l'espansione di sistemi sanitari o cose del genere. Preferiamo mettere nuovi armadi vicino ai controller effettivi.

Se si dispone di un adeguato raffreddamento, lasciare degli spazi vuoti non sarà utile a meno che il server non sia costruito male.


2

Ho l'impressione (forse erroneamente) che sia una pratica più popolare in alcuni ambienti di telecomunicazione in cui le navate calde / fredde non sono così ampiamente utilizzate.

Tuttavia, non è adatto per un datacenter ad alta densità e ben gestito.


1

Di solito lascio una RU vuota dopo circa 5RU di server (ovvero 5x1ru o 1x2ru + 1x3ru) e ciò dipenderebbe dalla configurazione del raffreddamento nel data center in cui ci si trova. Se il raffreddamento è stato eseguito davanti al rack (ovvero una griglia in parte anteriore del rack) l'idea è che l'aria fresca viene spinta dal pavimento e i server aspirano l'aria fresca attraverso di loro. in questa circostanza si otterrebbe in genere un migliore raffreddamento non lasciando spazi vuoti (ad esempio utilizzare un coperchio RU vuoto. Ma se per esperienza si è effettuato il raffreddamento attraverso il pannello del pavimento nel rack, per esperienza si ottiene un raffreddamento più efficiente rompendo i server dall'accatastamento uno sopra l'altro per l'intero rack


1

In una situazione in cui avevamo il nostro datacenter e lo spazio non era un problema, ero solito saltare una U (con un distanziatore per bloccare il flusso d'aria) tra aree logiche: i server web hanno una sezione, database, controller di dominio, e-mail, e il file server ne aveva un altro, e i firewall e i router ne avevano un altro. Switch e patch panel per desktop periferici erano nel loro rack.

Ricordo esattamente un'occasione in cui ho saltato una U per motivi di raffreddamento. Questa era una soluzione di looping TV via cavo A / V in una scuola superiore, dove c'erano tre unità ciascuna responsabile del servizio del sistema TV via cavo in una sezione dell'edificio. Dopo che l'unità superiore doveva essere sostituita per la terza volta in due anni a causa del surriscaldamento, ho eseguito un "intervento chirurgico" sul rack per eseguire i fori di montaggio in modo da poter lasciare 1 / 2U di spazio tra ciascuna delle tre unità (per un totale di 1 U di spazio totale).

Questo ha risolto il problema. Inutile dire che questo è stato accuratamente documentato, e per una misura ancora più buona ho registrato un foglio in cima a uno di essi con delle lacune, spiegando perché le cose fossero come erano.

Ci sono due lezioni qui:

  1. Lasciare un vuoto per il raffreddamento viene fatto solo in circostanze eccezionali.
  2. Utilizzare un caso affidabile o un fornitore di server. Fare attenzione all'acquisto di apparecchiature che provano a racimolare 2U di calore in 1U di spazio. Questo sarà allettante, perché il sistema 1U potrebbe sembrare molto più economico. E fai attenzione ad acquistare un case off-brand che non abbia adeguatamente tenuto conto del flusso d'aria.

0

Li ho impilati nell'unico rack che ho. Non ho mai avuto problemi, quindi non ho mai avuto motivo di distanziarli. Immagino che il motivo principale per cui le persone dovrebbero distanziarli è il calore.



0

Ho lasciato 1/3 di una RU tra due interruttori prima, principalmente perché erano alti 1 1/3 RU ciascuno.

Se li avessi messi insieme, la marcia più in alto sarebbe stata fuori posizione di 1/3 di una U.

A parte questo, non ho mai lasciato spazio solo per il raffreddamento, ma solo per la crescita futura.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.