Il modo più veloce per trasferire molti piccoli file sul server (senza git)


2

Ci sono molti casi in cui ho bisogno di distribuire una grande quantità di file su un server che di per sé non sono così grandi come spazio di archiviazione, ma il trasferimento SFTP e FTP rende il processo molto lento.

Esiste un modo più veloce (un protocollo più veloce) per trasferire migliaia di piccoli file (1-30 K)?

Attualmente sto usando compress-> transfer-> decomprimere, ma è un sovraccarico che vorrei evitare.

Ho accesso shell al server con un set di istruzioni limitato.

Risposte:


2

rsync è piuttosto efficiente con molti piccoli file:

$ rsync -a path/to/local/files/ server:path/to/remote/files/

1
è più veloce di ftp. grazie
Brett il

-1

cd path/to/local/files/ - dove vuoi copiare i tuoi file.

sftp server:path/to remote/files/ - da dove vuoi copiare i tuoi file.

quindi per copiare i file utilizzare get -r file_name, nel caso in cui dà get: Invalid flag -rerrore, quindi utilizzare R invece di r.


Benvenuto in Super User. La domanda richiede il modo più veloce per trasferire molti file. La tua soluzione utilizza file_name come parametro, il che implica l'esecuzione manuale di questo file per ciascun file, forse due volte errore di flag re: invalid. Non sembra che potrebbe essere la soluzione più veloce.
fixer1234
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.