Come eseguire il debug di questo? Questo problema è improvvisamente apparso negli ultimi due giorni. Tutti i backup di un sito Web sono danneggiati.
Se il backup viene lasciato come tar
, non ci sono problemi, ma non appena il tar viene compresso gz
o xz
non riesco a decomprimerli.
C'è molto disco libero
Local disk space 2.68 TB total / 2.26 TB free / 432.46 GB used
errore
tar: Skipping to next header[===============================> ] 39% ETA 0:01:14
tar: A lone zero block at 2291466===============================> ] 44% ETA 0:01:13
tar: Exiting with failure status due to previous errors
878MiB 0:00:58 [15.1MiB/s] [===================================> ] 44%
E perché dice Skipping to next header
? Non l'ha mai fatto prima. Qualcosa di terribilmente sbagliato in alcuni file.
Ci sono circa 15k file pdf, jpg o png nelle directory.
comando
pv $backup_file | tar -izxf - -C $import_dir
Ci devono essere alcuni dati che corrompono la compressione.
Ho anche provato a controllare lo stato dell'HDD facendo questo:
# getting the drives
lsblk -dpno name
smartctl -H /dev/sda
smartctl -H /dev/sdb
Su entrambe le unità ottengo questo:
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
Come posso sapere quali file stanno danneggiando tar.gz? Voglio solo cancellarli.
aggiornare
Ora ho copiato tutti i file su un altro server e ho lo stesso identico problema. Posso tarare tutto ed estrarlo senza problemi, ma appena voglio comprimere i file, non riesco a decomprimerli (gz / xz).
tar -cf xxx.tar ...
senza la compressione, allora gzip xxx.tar
? Quel tarball si estrae in modo pulito? Sta pv
causando problemi? Cosa succede se si rilascia la pv ... | ...
tubazione e si esegue direttamente direttamente tar -cvzf xxx.tar.gz ...
allora tar -xvzf xxx.tar ...
?
pv
.