Attualmente sto configurando un file server e sono arrivato al punto di configurare effettivamente le unità dati. Il sistema dispone di 4 unità (un disco del sistema operativo, 3 dischi di dati). Il disco del sistema operativo è formattato come ext4 e non verrà aggiunto al pool ZFS (se scelgo di eseguire ZFS). La mia preoccupazione principale è l'integrità dei dati e il rischio minimo di perdita dei dati (la cache dell'unità è disabilitata nel BIOS). Per questo ZFS sembra essere il candidato perfetto, poiché ha una versione stabile per Linux (corretta?) E supporta la duplicazione dei dati, il pooling e il raidz, dove i dischi rigidi non devono avere le stesse dimensioni.
Ma ecco il mio problema. Il server ha solo 2 GB di RAM e questo non può essere aggiornato nel prossimo futuro, e realisticamente solo 1,5 sarà effettivamente accessibile a ZFS dopo aver installato tutti gli altri servizi. Un massimo di circa 10 client lo useranno contemporaneamente (più come 4 in media). È troppo basso per essere considerato sicuro?
Da quanto ho capito, ZFS può bloccarsi in situazioni di scarsa RAM e portare con sé il pool. Ho sentito opinioni contrastanti sul fatto che lo swap possa aiutare ad alleviare questo problema (ho un'unità dedicata allo scambio da 20 GB). Qualcuno ha sperimentato la perdita di dati con ZFS con poca RAM e quali ottimizzazioni hai incluso per impedirlo?
Tenendo presente quanto sopra, sarebbe comunque possibile eseguire ZFS, sebbene ridurrebbe le dimensioni di ack e lo taglierà un po 'o sarà troppo rischioso?
Specifiche di sistema: 2 GB di RAM 20 GB di unità di swap OS, Debian 7, installazione minima, con FTP e XBMC, DNLA, (per dare un'idea dei requisiti di RAM). Utilizzato per server di archiviazione e streaming di file musicali su altri dispositivi.