Esistono molti modi per gestire i dati di quelle dimensioni. Molto dipende dal tuo ambiente e da quanti soldi sei disposto a spendere. In generale ci sono alcune strategie generali di "rimozione dei dati dal server":
- Su Ethernet Come indicato sulla confezione, i dati vengono trasmessi ad Some Where Else per la gestione. 20 TB richiederà molto tempo per copiare oltre 1 GB, ma è possibile farlo. L'hardware può aiutare (come i collegamenti 10GbE o, in alcuni casi, il collegamento NIC).
- Sul sottosistema di archiviazione Se si è su Fibre Channel, inviarlo a un altro dispositivo sulla rete FC. Se hai SAS, invialo a un dispositivo collegato SAS. Generalmente più veloce di Ethernet.
- Invialo a un altro array di dischi Invialo a un altro pezzo di memoria collegato allo stesso server.
Questa è la vista 100Km. Una volta che inizi a ingrandire, le cose diventano molto più frammentate. Come già accennato, LTO5 è una tecnologia a nastro specifica progettata per questo tipo di carichi ad alta densità. Un altro array di archiviazione identico è un buon obiettivo, soprattutto se è possibile utilizzare qualcosa come GlusterFS o DRBD per ottenere i dati lì. Inoltre, se hai bisogno di una rotazione di backup o solo la possibilità di continuare a funzionare nel caso in cui l'array non funzioni influirà su ciò che hai messo in atto.
Una volta che hai optato per un metodo di visualizzazione di 100 km, entrare nel software sarà il prossimo grande compito. I fattori che influenzano questo sono ciò che puoi installare sul tuo server di archiviazione in primo luogo (se è una NetApp, questa è una cosa, un server Linux con un sacco di spazio di archiviazione è un'altra cosa, così come un server Windows con un sacco di spazio di archiviazione) , quale hardware scegli (non tutti i pacchetti di backup FOSS gestiscono bene le librerie di nastri, ad esempio) e quale tipo di conservazione del backup è richiesta.
Devi davvero capire che tipo di Disaster Recovery desideri. La replica live semplice è più semplice, ma non consente di eseguire il ripristino dall'ultima settimana solo ora. Se la capacità di ripristinare dall'ultima settimana è importante per te, allora devi progettare per quel tipo di cose. Per legge (negli Stati Uniti e altrove) alcuni dati devono essere conservati per oltre 7 anni.
La replica semplice è la più semplice da fare. Questo è ciò che DRBD è progettato per fare. Una volta eseguita la copia iniziale, invia solo le modifiche. I fattori complicanti qui sono la località di rete, se il tuo secondo array non è vicino al DRBD primario potrebbe non essere fattibile. Avrai bisogno di un secondo server di archiviazione con almeno lo spazio di archiviazione del primo.
Informazioni sul backup su nastro ...
LTO5 può contenere 1,5 TB di dati senza compressione. Nutrire questi mostri richiede una rete molto veloce, che è Fibre Channel o SAS da 6 Gb. Dato che è necessario eseguire il backup di oltre 1,5 TB in una serie, è necessario esaminare i caricatori automatici (ecco un esempio: link , un caricatore automatico a 1 unità a 24 slot di HP). Con il software che li supporta, gestiranno il cambio dei nastri durante il backup per te. Sono grandi. Dovrai comunque estrarre i nastri per inviarli al di fuori del sito, ma è una vista dannatamente meglio che restare in giro tutta la notte per caricare i nastri da soli quando il backup li richiede.
Se il nastro ti dà gli heebiegeebies ' legacy, ew ', una libreria di nastri virtuali potrebbe essere più veloce (come questa di Quantum: link ). Questi fingono di essere librerie nastro per il backup del software, mentre in realtà archiviano le cose su disco con solide (speri) tecniche di de-duplicazione. I più fantasiosi copieranno persino i nastri virtuali in nastri reali per te, se ti piace quel genere di cose, che possono essere molto utili per le rotazioni fuori sede.
Se non vuoi scherzare con nemmeno i nastri virtuali, ma vuoi comunque eseguire backup diretti su disco, avrai bisogno di un array di archiviazione abbastanza grande da gestire quei 20 TB, oltre ai dati di cambiamento di rete che desideri per trattenere. Diversi pacchetti di backup gestiscono questo in modo diverso. Alcune tecnologie di de-duplicazione sono davvero interessanti, altre sono complicate. Personalmente non conosco lo stato dei pacchetti software di backup FOSS in quest'area (ho sentito parlare di Bacula), ma potrebbero essere sufficienti. Molti pacchetti di backup commerciali dispongono di agenti locali installati sui server di cui eseguire il backup per aumentare la velocità effettiva, il che ha molti meriti.