Risposte:
L'unica opzione di limitazione che conosco quale wget
supporta è il -Q
cambio di quota. Questo non è ciò che desideri, poiché si fermerà dopo un limite combinato di tutti i file che hai scaricato, non individualmente. Anche il piping di ciascun collegamento ad esso separatamente con l' -Q
interruttore non funzionerà, come spiegato nella pagina man .
Non so quale ambiente stai utilizzando, ma il crawler supporta le limitazioni della dimensione dei file con byte di lunghezza massima e funziona sulla piattaforma Java.
dal loro manuale utente :
- max-length-byte
Numero massimo di byte da scaricare per documento. Troncerà il file una volta raggiunto questo limite.
Per impostazione predefinita, questo valore è impostato su un valore estremamente elevato (nell'intervallo di exabyte) che non verrà mai raggiunto in pratica.
Se si tratta di " scaricare 2 MB max " anziché di " scaricare file con max 2 MB ", è possibile limitare l'output salvato su disco.
wget -O - $url |head -c 1024
(con un facoltativo > $SaveAsFile
) -> salva il primo KB e il resto viene troncato.
(abbastanza per vedere un " OK: $ Message ", non uccidere il mio / tmp con tonnellate di messaggi di errore dal telecomando ;-))
Questo è possibile con l'aiuto di patch di terze parti: http://yurichev.com/wget.html