Sto archiviando i dati da un server a un altro. Inizialmente ho iniziato un rsynclavoro. Ci sono volute 2 settimane per costruire l'elenco dei file solo per 5 TB di dati e un'altra settimana per trasferire 1 TB di dati.
Quindi ho dovuto terminare il lavoro perché abbiamo bisogno di un po 'di tempo morto sul nuovo server.
È stato concordato che lo avremo tarato poiché probabilmente non dovremo accedervi nuovamente. Stavo pensando di dividerlo in blocchi da 500 GB. Dopo di tarche poi avrei copiato tutto ssh. Stavo usando tare pigzma è ancora troppo lento.
C'è un modo migliore per farlo? Penso che entrambi i server siano su Redhat. Il vecchio server è Ext4 e il nuovo è XFS.
Le dimensioni dei file vanno da pochi KB a pochi MB e ci sono 24 milioni di jpeg in 5 TB. Quindi sto indovinando circa 60-80 milioni per 15 TB.
modifica: dopo aver giocato con rsync, nc, tar, mbuffer e pigz per un paio di giorni. Il collo di bottiglia sarà l'IO del disco. Poiché i dati vengono distribuiti su 500 dischi SAS e circa 250 milioni di jpeg. Tuttavia, ora ho imparato tutti questi simpatici strumenti che posso usare in futuro.