Effettuare copie dei dati in modo che le copie possano essere utilizzate per ripristinare l'originale dopo un evento di perdita di dati o per la conservazione storica.
Attualmente stiamo implementando una soluzione di backup per un client e la loro soluzione ERP utilizza SQL Server. La soluzione ERP è stata creata da un'altra società. E loro mi dicono che è super importante eseguire il backup e troncare il log delle transazioni. Ho letto un po 'su questo …
Devo eseguire il backup dei dati e configurare i file su questo server ogni giorno. Devo mantenere: backup giornalieri per una settimana backup settimanali per un mese backup mensili per un anno backup annuali successivi Tutto ciò realizzato tramite uno script di shell eseguito quotidianamente da cron. Ecco come dovrebbero …
Ho un cron che fondamentalmente fa un semplice "tar zcf" nella notte. Il server ha: 8 core: CPU Intel (R) Xeon (R) E5606 a 2,13 GHz 25 GB di RAM Ubuntu 12.04.2 LTS Hardware RAID 1 (LSI Logic / Symbios Logic MegaRAID SAS SMC2108) con due hard disk da 2,728 …
Allo stato attuale, questa domanda non è adatta al nostro formato di domande e risposte. Ci aspettiamo che le risposte siano supportate da fatti, riferimenti o competenze, ma questa domanda probabilmente solleciterà dibattiti, argomenti, sondaggi o discussioni estese. Se ritieni che questa domanda possa essere migliorata e possibilmente riaperta, visita …
Con btrfs che ha colpito la produzione in Oracle EL 14th questo mese (insieme a lavorare con fsck e scrubbing da Linux 3.2) stavo pensando di ridisegnare la mia attuale soluzione di backup per utilizzarla. Si noti che sto pensando di farlo per piccole quantità di dati, meno di 10 …
Ho un paio di configurazioni di server Web / DB che utilizzano Amazon EC2. Attualmente sto prendendo istantanee quotidiane di tutto il mio sistema e le unità EBS che contiene tutti i miei file dell'applicazione, file DB, codice sorgente e backup DB. Ho un'applicazione console che esegue le creazioni di …
Il mio attuale scenario di backup MySQL è replicare il nostro db su un secondo server ed eseguire mysqldump su quel server per rimuovere eventuali tempi di inattività dal blocco delle tabelle o delle righe. Funziona bene ma costa $ 150 al mese per il secondo server (l'hosting australiano è …
Sto cercando di implementare un server di archiviazione molto grande da utilizzare come NAS live per molti altri server (tutti basati su Linux). In termini molto ampi, intendo tra 4 TB e 20 TB di spazio utilizzabile (anche se è improbabile che in realtà lo faremo 20 TB). Il server …
Ho un sacco di relatività piccoli file di dati ma occupano circa 50 GB e ho bisogno che vengano trasferiti su una macchina diversa. Stavo cercando di pensare al modo più efficiente per farlo. Pensavo di dover decomprimere tutto, quindi risincronizzarlo e decomprimerlo, fare affidamento su rsync -z per la …
Abbiamo una struttura di cartelle sulla nostra intranet che contiene circa 800.000 file suddivisi in circa 4.000 cartelle. Dobbiamo sincronizzarlo con un piccolo gruppo di macchine nelle nostre DMZ. La profondità della struttura è molto bassa (non supera mai i due livelli di profondità). La maggior parte dei file non …
Ho fatto i backup del disco rigido per un po ', cosa che credo lo facciano anche molti di voi, ma ho problemi a trovare un modo migliore per archiviarli fuori sede. Mi chiedo come lo facciate ragazzi. Qualsiasi politica o trucchi e suggerimenti quando si tratta di archiviare i …
Sto usando lo automysqlbackupscript per scaricare i miei database mysql, ma voglio avere un utente di sola lettura per farlo in modo da non memorizzare la mia password del database di root in un file di testo normale. Ho creato un utente in questo modo: grant select, lock tables on …
Come fa a rsyncsapere quali file vengono modificati e quali no? Registra i suoi dati ovunque nel file? Perché voglio fare backup incrementali, ma prima trasferirà tutti i file. Quindi la mia domanda principale è: se carico i file iniziali via FTP ma non da rsync. Salterà rsynccomunque quei file …
Ho una macchina Windows Server 2000 con MS SQL Server che memorizza oltre 20 GB di dati. Viene eseguito il backup del database ogni giorno sul secondo disco rigido. Voglio trasferire quei file di backup su un altro computer per creare un altro server di prova e per esercitarmi nel …
Quando chiedono supporto a Gitlab su come eseguire un backup da 3 TB su quelli Gitlab locali, rispondono utilizzando il nostro strumento che produce un tarball. Questo mi sembra sbagliato a tutti i livelli. Questo tarball contiene il dump postgres, le immagini docker, i dati repo, la configurazione GIT LFS, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.