So che puoi scaricare pagine Web in modo ricorsivo usando wget
, ma è possibile eseguire un ciclo a secco? In modo che tu possa fare una specie di test per vedere quanto verrebbe scaricato se lo facessi davvero? Pensando a pagine che hanno molti collegamenti a file multimediali come ad esempio immagini, file audio o di film.
-nd
flag (non creare directory) se lo usi con il-r
flag (ricorsivo).