Quando chiedono supporto a Gitlab su come eseguire un backup da 3 TB su quelli Gitlab locali, rispondono utilizzando il nostro strumento che produce un tarball.
Questo mi sembra sbagliato a tutti i livelli. Questo tarball contiene il dump postgres, le immagini docker, i dati repo, la configurazione GIT LFS, ecc. E così via. Il backup di TB di dati statici insieme a dati molto dinamici di KB non risulta corretto. E poi arriva il problema di, vogliamo fare un backup ogni ora.
Domanda
Mi piacerebbe davvero sapere dagli altri come lo fanno, per ottenere un backup coerente.
ZFS su Linux andrebbe bene con me, se questo fa parte della soluzione.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
non posso parlare per esperienza, però. Ma potrei dover includere qualcosa del genere presto ...