Avremo una macchina al lavoro, che al massimo delle prestazioni, dovrebbe essere in grado di inviare 50 ("testine di scrittura") x 75 GB di dati all'ora. Sono le massime prestazioni di ~ 1100 MB / s di velocità di scrittura. Per ottenerlo dalla macchina, sono necessarie due linee da 10 GBi. La mia domanda è: che tipo di tecnologia server + può gestire / archiviare tale flusso di dati?
Attualmente per l'archiviazione dei dati lavoriamo con ZFS, sebbene la velocità di scrittura non sia mai stata una domanda. (non siamo nemmeno vicini a queste velocità) ZFS (zfs su linux) sarebbe un'opzione? Dobbiamo anche archiviare molti dati, la "guida IT" suggerisce tra 50 e 75 TB in totale. Quindi probabilmente non può essere tutto SSD a meno che non vogliamo offrire al nostro primogenito.
Alcune aggiunte basate sulle risposte eccellenti:
- il massimo è 50x75 GB / ora durante il picco, che è inferiore a 24 ore (molto probabilmente <6 ore)
- Non prevediamo che ciò accada presto, molto probabilmente avremo 5-10x75 GB / ora
- è una macchina pre-alfa, tuttavia i requisiti devono essere soddisfatti (anche se sono in gioco molti punti interrogativi)
- useremmo NFS come il collegamento dalla macchina al server
- layout: macchina generatrice -> memoria (questa) -> (raid sicuro 6) -> cluster di calcolo
- quindi la velocità di lettura non è essenziale , ma sarebbe bello usarla dal cluster di calcolo (ma questo è completamente opzionale)
- molto probabilmente saranno file di dati di grandi dimensioni (non molti piccoli)