Linee guida per il numero massimo di dischi in un set RAID?


13

In uno qualsiasi dei livelli RAID che utilizzano lo striping, l'aumento del numero di dischi fisici di solito aumenta le prestazioni, ma aumenta anche la possibilità che si verifichi un errore di un disco nel set. Ho questa idea che non dovrei usare più di circa 6-8 dischi in un determinato set RAID, ma questo è più semplicemente tramandato conoscenza e non fatti reali per esperienza. Qualcuno può darmi buone regole con motivi dietro di loro per il numero massimo di dischi in un set?

Risposte:


10

Il numero massimo consigliato di dischi in un sistema RAID varia molto. Dipende da una varietà di cose:

  • Tecnologia disco SATA tollera array più piccoli rispetto a SAS / FC, ma questo sta cambiando.
  • Limiti del controller RAID Il controller RAID stesso può avere valori massimi fondamentali. Se è basato su SCSI e ogni disco visibile è un LUN, la regola 7/14 è valida. Se basato su FibreChannel, può avere fino a 120 o più dischi visibili.
  • Processore del controller RAID Se si utilizza qualsiasi tipo di RAID di parità, la CPU nella scheda RAID sarà il limitatore della velocità con cui è possibile scrivere i dati. Ci sarà un massimo fondamentale per la carta. Lo vedrai quando un'unità si guasta in un LUN RAID5 / 6, poiché il calo delle prestazioni influirà su tutti i LUN associati alla scheda RAID.
  • La larghezza di banda del bus U320 SCSI ha i suoi limiti, così come FibreChannel. Perché SCSI mantenere membri RAID su canali diversi può migliorare il parallelismo e migliorare le prestazioni, se il controller lo supporta.

Per RAID basato su SATA, non si desidera avere più di circa 6,5 ​​TB di disco grezzo se si utilizza RAID5. Passa oltre e RAID6 è un'idea molto migliore. Ciò è dovuto al tasso di errore di lettura non recuperabile. Se la dimensione dell'array è troppo grande, le possibilità che si verifichi un errore di lettura non recuperabile che si verifica durante la ricostruzione dell'array dopo una perdita diventano sempre più elevate. Se ciò accade, è molto male. Avere RAID6 riduce notevolmente questa esposizione. Tuttavia, le unità SATA hanno migliorato la qualità negli ultimi tempi, quindi questo potrebbe non valere per molto più tempo.

Il numero di mandrini in un array non mi preoccupa molto, poiché è abbastanza semplice arrivare a 6,5 ​​TB con unità da 500 GB su U320. In tal caso, sarebbe una buona idea posizionare metà delle unità su un canale e metà sull'altra solo per ridurre la contesa I / O sul lato bus. Le velocità SATA-2 sono tali che anche solo due dischi che trasferiscono alla velocità massima possono saturare un bus / canale.

I dischi SAS hanno una velocità MTBF inferiore rispetto a SATA (di nuovo, questo sta cominciando a cambiare) quindi le regole sono meno rigide lì.

Esistono array FC che utilizzano unità SATA internamente. I controller RAID sono molto sofisticati, il che confonde le regole empiriche. Ad esempio, la linea di array HP EVA raggruppa i dischi in "gruppi di dischi" su cui sono disposti i LUN. I controller posizionano intenzionalmente i blocchi per i LUN in posizioni non sequenziali ed eseguono il livellamento del carico sui blocchi dietro le scene per ridurre al minimo l'hot-spotting. Il che è un lungo modo di dire che fanno molto lavoro pesante per te per quanto riguarda l'I / O multicanale, i mandrini coinvolti in un LUN e gestire la ridondanza.

Riassumendo, i tassi di errore per i dischi non guidano le regole per quanti mandrini ci sono in un gruppo RAID, lo fanno le prestazioni. Per la maggior parte.


3

Se si cercano prestazioni, è importante comprendere l'interconnessione che si sta utilizzando per collegare le unità all'array. Per SATA o IDE, verrà visualizzato 1 o 2 per canale, rispettivamente (supponendo che si stia utilizzando un controller con canali indipendenti). Per SCSI, questo dipende fortemente dalla topologia del bus. I primi SCSI avevano un limite di dispositivi di 7 ID dispositivo per catena (aka. Per controller), uno dei quali doveva essere il controller stesso, quindi avresti avuto 6 dispositivi per catena SCSI. Le più recenti tecnologie SCSI consentono quasi il doppio di quel numero, quindi si dovrebbe guardare 12+. La chiave qui è che il throughput combinato di tutte le unità non può superare la capacità dell'interconnessione , altrimenti le unità saranno "inattive" quando raggiungono le massime prestazioni.

Tieni presente che le unità non sono l'unico collegamento debole qui; ogni interconnessione senza ridondanza determina un singolo punto di errore. Se non mi credi, imposta un array RAID 5 su un controller SCSI a catena singola, quindi cortocircuita il controller. Riesci ancora ad accedere ai tuoi dati? Sì, è quello che ho pensato.

Oggi le cose sono cambiate un pochino. Le unità non hanno avanzato molto in termini di prestazioni, ma il progresso visto è abbastanza significativo che la performance tende a non essere un problema a meno che non si sta lavorando con "fattorie di unità", nel qual caso si sta parlando di un'infrastruttura completamente diversoe questa risposta / conversazione è discutibile. Ciò di cui probabilmente ti preoccuperai di più è la ridondanza dei dati. RAID 5 era buono ai suoi tempi d'oro a causa di diversi fattori, ma quei fattori sono cambiati. Penso che scoprirai che RAID 10 potrebbe essere più di tuo gradimento, in quanto fornirà ulteriore ridondanza contro i guasti dell'unità, aumentando le prestazioni di lettura. Le prestazioni di scrittura ne risentiranno leggermente, ma ciò può essere mitigato attraverso un aumento dei canali attivi. Vorrei prendere una configurazione RAID 10 a 4 unità su una configurazione RAID 5 a 5 unità ogni giorno, perché la configurazione RAID 10 può sopravvivere a un (caso specifico di) guasto a due unità, mentre l'array RAID 5 si limiterebbe semplicemente a rotolare e morire con un errore di due unità. Oltre a fornire una ridondanza leggermente migliore, è anche possibile mitigare il "controller come singolo punto di errore" situazione dividendo lo specchio in due parti uguali, con ciascun controller che gestisce solo la striscia. In caso di guasto del controller, la striscia non andrà persa, ma solo l'effetto specchio.

Naturalmente, questo potrebbe essere completamente sbagliato anche per le tue circostanze. Dovrai esaminare i compromessi tra velocità, capacità e ridondanza. Come il vecchio scherzo ingegneristico, "meglio-economico-veloce, scegli due", scoprirai che puoi vivere con una configurazione adatta a te, anche se non è ottimale.


2

RAID 5 Direi 0 unità per array. Vedi http://baarf.com/ o altri simili da qualsiasi altro numero di fonti.

RAID 6 Direi 5 unità + 1 per ogni hot spare per array. Tanto meno e potresti anche fare RAID 10, tanto più e stai spingendo il fattore di rischio e dovresti andare a RAID 10.

RAID 10 arriva al massimo delle tue preferenze.


1

Uso 7 come numero massimo "magico". Per me, è un buon compromesso tra spazio perso per ridondanza (in questo caso, ~ 14%) e tempo di ricostruzione (anche se il LUN è disponibile durante la ricostruzione) o aumento delle dimensioni e MTBF.

Ovviamente, questo ha funzionato benissimo per me quando si lavora con custodie SAN a 14 dischi. Due dei nostri clienti avevano contenitori da 10 dischi e il numero magico 7 era ridotto a 5.

Tutto sommato, 5-7 ha funzionato per me. Spiacente, nessun dato scientifico da me neanche, solo esperienza con i sistemi RAID dal 2001.


Quindi potresti tranquillamente dire "taglia il recinto a metà", quindi, sembra. Ho un enclosure di 12 dischi che ho 10 dischi un array RAID 10 con 2 hot spare, ma per fortuna non ho ancora dovuto ricostruirlo.
Matt Simmons,

1

Il massimo effettivo è la larghezza di banda del controller RAID.

Supponiamo che il disco abbia una lettura massima di 70 MB / sec. Nel carico di picco, non è possibile eseguire la pala dei dati abbastanza velocemente. Per un file server occupato (RAID 5) o un server db (RAID 10), è possibile eseguire questa operazione rapidamente.

SATA-2 è una specifica di interfaccia di 300 MB / S, SCSI Ultra 320 sarebbe più coerente. Stai parlando di 6-10 dischi perché non raggiungerai il picco troppo spesso.


0

Il limite dei dischi in un RAID era determinato dal numero di dispositivi su un BUS SCSI. È possibile collegare fino a 8 o 16 dispositivi a un singolo bus e il controller viene conteggiato come un solo dispositivo, quindi erano 7 o 15 dischi.

Quindi molti RAID erano 7 dischi (uno era un hot spare), il che significava che rimanevano 6 dischi - o 14 dischi con 1 hot spare.

Quindi la cosa più importante dei dischi in un gruppo RAID è probabilmente il numero di IOPS necessari.

Ad esempio, un disco SCSI da 10k RPM può eseguire circa 200 IOPS - se ne avessi 7 in un RAID 5 - perderai 1 disco per parità ma avresti 6 dischi per lettura / scrittura e un massimo teorico di 1200 IOPS - se necessari più IOPS: aggiungere più dischi (200 IOPS per disco).

E i dischi più veloci 15k RPM SAS possono arrivare a 250 IOPS, ecc.

E poi c'è sempre SSD (30.000 IOPS per disco) e sono raidabili (anche se molto costosi).

E penso che SAS abbia un valore massimo folle per il numero di dispositivi, come 16.000 unità


0

Con RAID6 e SATA, ho avuto un buon successo con 11 dischi ... E uno hot spare (alcuni controller difettosi avranno bisogno di due hot-spare per fare una ricostruzione di RAID6). Questo è conveniente poiché molti JBOD sono disponibili in gruppi di 12 dischi come HP MSA60.


0

Fino a quando non raggiungi la velocità massima del bus nel punto più stretto della catena (carta raid, collegamenti), quindi può avere senso. La stessa cosa quando aggiungi molte schede di rete 1GbE al tuo bus PCI, non ha alcun senso.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.